Ces méthodes peuvent être grossièrement décrits en termes de deux méthodes de temps à pas, dénotées par et . Les deux
et se propagent une valeur initiale
par approximation de la solution deF G F U n ≈ u ( t n )gFgFUn≈ u ( tn)
u ( t ) = u0+ ∫t0F( τ, u ( τ) )réτ
de à (c'est-à-dire, ). Pour que les méthodes soient efficaces, il faut que le propagateur soit moins cher en calcul que le propagateur , et donc
est typiquement une méthode de faible ordre. Étant donné que la précision globale des méthodes est limitée par la précision de la
propagateur, est généralement d'ordre supérieur et peut en outre utiliser un pas de temps inférieur à
. Pour ces raisons, est appelé propagateur grossier et propagateur fin.t n + 1 ˙ u = f ( u , t ) G F G F F G G Ftntn + 1u˙= f( u , t )gFgFFggF
La méthode Parareal commence par calculer une première approximation
pour où est le nombre de pas de temps, en utilisant le propagateur grossier. La méthode Parareal procède ensuite de manière itérative, en alternant entre le calcul parallèle de et une mise à jour des conditions initiales à chaque processeur de la forme n = 0 … N - 1 N F ( t n + 1 , t n , U k n )U0n + 1n = 0 … N- 1NF( tn + 1, tn, Ukn)
Uk + 1n + 1= G ( tn + 1, tn, Uk + 1n) + F( tn + 1, tn, Ukn) - G ( tn + 1, tn, Ukn)
pour . C'est-à-dire que le propagateur fin est utilisé pour affiner la solution dans chaque tranche de temps en parallèle, tandis que le propagateur grossier est utilisé pour propager les raffinements effectués par le propagateur fin dans le temps aux processeurs ultérieurs. Notez qu'à ce stade, nous n'avons pas spécifié ce que sont les propagateurs et : il pourrait s'agir, par exemple, de schémas Runge-Kutta d'ordre variable.n = 0 … N- 1gF
La méthode PITA est très similaire à Parareal, mais elle garde une trace des mises à jour précédentes et ne met à jour la condition initiale sur chaque processeur que d'une manière qui rappelle les méthodes du sous-espace Krylov. Cela permet à PITA de résoudre des équations linéaires du second ordre que Parareal ne peut pas.
La méthode PFASST diffère des méthodes Parareal et PITA de deux manières fondamentales: premièrement, elle s'appuie sur le schéma itératif de correction temporelle à correction différentielle (SDC), et deuxièmement elle incorpore des corrections du schéma d'approximation complète au propagateur grossier, et en fait PFASST peut utiliser une hiérarchie de propagateurs (au lieu de seulement deux). L'utilisation de SDC permet l'hybridation temporelle et les itérations SDC, ce qui assouplit les contraintes d'efficacité de Parareal et PITA. L'utilisation des corrections FAS permet une grande flexibilité lors de la construction des propagateurs grossiers de PFASST (rendre les propagateurs grossiers aussi bon marché que possible contribue à augmenter l'efficacité parallèle). Les stratégies de grossissement comprennent: le grossissement du temps (moins de nœuds SDC), le grossissement de l'espace (pour les PDE basés sur la grille), le grossissement de l'opérateur et la physique réduite.
J'espère que cela décrit les principes fondamentaux, les différences et les similitudes entre les algorithmes. Veuillez consulter les références dans cet article pour plus de détails.
En ce qui concerne les applications, les méthodes ont été appliquées à une grande variété d'équations (orbites planétaires, Navier-Stokes, systèmes de particules, systèmes chaotiques, dynamiques structurelles, écoulements atmosphériques, etc.). Lorsque vous appliquez la parallélisation temporelle à un problème donné, vous devez certainement valider la méthode d'une manière appropriée au problème résolu.