Le filtrage passe-bas et le lissage de régression polynomiale peuvent être considérés comme approximations d'une fonction. Cependant, les moyens d'y parvenir sont différents. La question clé à poser ici est "Pouvez-vous faire l'un en fonction de l'autre?" et la réponse courte est "pas toujours", pour les raisons qui sont expliquées ci-dessous.
Lors du lissage par filtrage, l'opération clé est la convolution où , qui dans le domaine fréquentiel se traduit par y = F - 1 ( F ( x ) F ( h ) ) où F désigne la transformée de Fourier discrète (et F - 1 l'inverse). La transformée de Fourier discrète (par exemple F ( x ) ) offre une approximation de xy(n)=x(n)∗h(n)y=F−1(F(x)F(h))FF−1F(x)xcomme une somme de fonctions trigonométriques. Lorsque est un filtre passe-bas, un plus petit nombre de composants basse fréquence sont conservés et les changements brusques de x sont lissés. Cela définit le filtrage passe-bas dans le contexte de l'approximation des fonctions en utilisant des fonctions trigonométriques comme fonctions de base , mais il convient de revoir la formule de convolution pour noter que lors du filtrage, y (n) (la sortie du filtre) dépend de x ( n ) ainsi qu'une somme pondérée des échantillons antérieurs de x (la pondération ici déterminée par la "forme" de h ). (des considérations similaires valent bien sûr pour les filtres IIR avec l'ajout des valeurs passées de y (hxx(n)xh aussi)y(n)
Cependant, lors du lissage par un polynôme de n degrés , la sortie de l'interpolant ne dépend que de et d'un mélange de fonctions de base (différentes) (également appelées monômes ). Quelles sont ces différentes fonctions de base? C'est une constante ( a 0 x 0 ), une ligne ( a 1 x ), une parabole ( a 2 x 2 ) et ainsi de suite (veuillez vous référer à cex(n)a0x0a1xa2x2 pour une belle illustration). Habituellement cependant, lorsque l'on traite des échantillons équidistants dans le temps et pour des raisons de précision, ce qui est utilisé est la forme de Newton du polynôme. La raison pour laquelle je le cite est que, grâce à cela, il est facile de voir que lors de l'interpolation linéaire, vous pouvez construire un noyau de filtre qui renvoie une somme pondérée linéairement des échantillons disponibles, tout comme un polynôme d'interpolation d'ordre inférieur utiliserait des "lignes" pour interpoler entre deux échantillons. Mais à des degrés plus élevés, les deux méthodes d'approximation renverraient des résultats différents (en raison des différences dans les fonctions de base).
x(n)x -notez le point sur la normalisation-)
La raison pour laquelle le filtrage est parfois utilisé comme interpolation, par exemple dans le cas de "l'interpolation Sinc", est qu'il est également logique d'un point de vue physique. La représentation idéalisée d'un système à bande limitée (par exemple un amplificateur (linéaire) ou une lentille dans un système optique ) dans le domaine temporel est l'impulsion sinc. La représentation du domaine fréquentiel d'une impulsion sinc est une "impulsion" rectangulaire. Par conséquent, avec très peu d'hypothèses, nous nous attendons à ce qu'une valeur manquante soit plus ou moins proche de ses voisins (bien sûr, dans des limites). Si cela a été effectué avec un polynôme d'ordre n (pour un n plus élevé), d'une certaine manière, nous «corrigeons»x3par exemple). Je parle à proprement parler de contraintes imposées par interpolation lorsque l'on essaie de "deviner" objectivement des valeurs manquantes.
Il n'y a pas de "meilleure méthode" universelle, cela dépend à peu près du problème d'interpolation auquel vous êtes confronté.
J'espère que ça aide.
PS (Les artefacts générés par chacune des deux méthodes d'approximation sont également différents, voir par exemple le phénomène Gibbs et le sur- ajustement , bien que le sur-ajustement soit "de l'autre côté" de votre question.)