Supposons que j'ai eu le problème d'advection périodique 1D suivant:
in u ( 0 , t ) = u ( 1 , t ) u ( x , 0 ) = g ( x )
où a une discontinuité de saut à .
Je crois comprendre que pour les schémas linéaires de différences finies supérieurs au premier ordre, des oscillations parasites se produisent près de la discontinuité au fur et à mesure qu'elle est advectée au fil du temps, entraînant une distorsion de la solution par rapport à sa forme d'onde attendue. Selon l' explication de Wikipédia , il semble que ces oscillations se produisent généralement lorsqu'une fonction discontinue est approchée avec une série de Fourier finie.
Pour une raison quelconque, je n'arrive pas à comprendre comment une série de Fourier finie peut être observée dans la solution de ce PDE. En particulier, comment puis-je estimer analytiquement une limite sur le "dépassement"?