Application sûre de méthodes itératives sur des matrices diagonalement dominantes


9

Supposons que le système linéaire suivant soit donné où est le Laplacien pondéré connu pour être défini positif avec un espace nul unidimensionnel par , et la variance de translation de , c'est-à-dire que ne change pas la valeur de la fonction (dont la dérivée est ). Les seules entrées positives de trouvent sur sa diagonale, qui est une somme des valeurs absolues des entrées négatives hors diagonale. Lsemi-1n=(1,,1)RnxRnx+a1n(1)L

(1)Lx=c,
Lsemi1n=(1,,1)RnxRnx+a1n(1)L

J'ai trouvé dans un travail universitaire très cité dans son domaine que, bien que soit dominant en diagonale, des méthodes telles que le gradient conjugué, Gauss-Seidl, Jacobi, pouvaient toujours être utilisées en toute sécurité pour résoudre . La raison est que, en raison de l'invariance de la traduction, il est sûr de fixer un point (par exemple, supprimer la première ligne et la colonne de et la première entrée de ), convertissant ainsi en une matrice diagonale dominante. Quoi qu'il en soit, le système d'origine est résolu sous la forme complète de , avec .n o t s t r i c t l y ( 1 ) L c L s t r i c t l y ( 1 ) L R n × nLnot strictly(1)LcLstrictly(1)LRn×n

Cette hypothèse est-elle correcte et, dans l'affirmative, quelle est la justification alternative? J'essaie de comprendre comment la convergence des méthodes tient toujours.

Si la méthode de Jacobi est convergente avec , que pourrait-on dire sur le rayon spectral de la matrice d'itération , où est la matrice diagonale avec les entrées de sur sa diagonale? Est-ce que , donc différent des garanties de convergence générales pour ? Je le demande car les valeurs propres de la La matrice laplacienne avec celles sur la diagonale doit être dans la plage .ρ D - 1 ( D - L ) D L ρ ( D - 1 ( D - L ) 1 ρ ( D - 1 ( D - L ) ) < 1 D - 1 L(1)ρD1(DL)DLρ(D1(DL)1ρ(D1(DL))<1D1L[0,2]

De l'œuvre originale:

......................................

À chaque itération, nous calculons une nouvelle disposition (x (t +1), y (t + 1)) en résolvant le système linéaire suivant: Sans perte de généralité, nous pouvons fixer l'emplacement de l'un des les capteurs (en utilisant le degré de liberté de translation de la contrainte localisée) et obtenir une matrice strictement diagonale dominante. Par conséquent, nous pouvons utiliser en toute sécurité l'itération de Jacobi pour résoudre (8)

(8)L·x(t+1)=L(x(t),y(t))·x(t)L·y(t+1)=L(x(t),y(t))·y(t)

.......................................

Dans ce qui précède, la notion d '"itération" est liée à la procédure de minimisation sous-jacente et ne doit pas être confondue avec l'itération de Jacobi. Ainsi, le système est résolu par Jacobi (de manière itérative), puis la solution est achetée à droite de (8), mais maintenant pour une autre itération de la minimisation sous-jacente. J'espère que cela clarifie la question.

Notez que j'ai trouvé Quels solveurs linéaires itératifs convergent pour des matrices semi-définies positives? , mais je cherche une réponse plus élaborée.


Pourriez-vous publier un lien ou une citation vers l'œuvre très citée?
Geoff Oxberry

Il peut être récupéré à partir de: citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.164.1421 Puisque vous ne devez pas lire l'intégralité de l'ouvrage, jetez un œil à la p.7 (en bas). Je suppose que le choix des solveurs itératifs est justifié, mais je pense qu'une meilleure justification (ou, au moins, différente) est nécessaire.
usero

Je me demande si ces gars-là sont de la même communauté que les préconditionneurs combinatoires.
shuhalo

Réponses:


5

L'itération de Jacobi peut être prouvée convergente.

La première chose que vous devez vous assurer est que , qui est la condition d'existence de la solution (je suppose que , sinon vous avez besoin de ) parce que vous avez dit . Nous utiliserons la convention selon laquelle est également la matrice dont les colonnes en sont la base orthonormée. Dans votre cas, .L = L T c ( K e r L T ) V 0 : = K e r L = s p a n { 1 n } V 0 V 0 : = 1 n / cT1n=0L=LTc(KerLT)V0:=KerL=span{1n}V0V0:=1n/n

Ensuite, pour les erreurs de l'itération Jacobi sur le système d'origine, vous avez où est la projection orthogonale sur . De l'itération ci-dessus, nous savons que partir de laquelle nous avons la matrice d'itération dans , Non pas que ait les mêmes spectres (sauf les zéros) avec la matrice suivante Nous voulons le rayon spectral deP : = I - V 0 V 0 V 1 :

e1=(ID1L)e0=(ID1L)(Pe0+V0a)=(ID1L)Pe0+V0a,
P:=IV0V0 P e 1 = P ( I - D - 1 L ) P e 0 , S V 1 S : = P ( I - D - 1 L ) P . S ˜ S : = ( I - D - 1 L ) P P = ( I - D - 1 LV1:=V0
Pe1=P(ID1L)Pe0,

SV1
S:=P(ID1L)P.
SS
S~:=(ID1L)PP=(ID1L)P=(ID1L)(IV0V0)=ID1LV0V0.
S moins d'un pour prouver la convergence.

La citation suivante est ancienne et conservée uniquement pour référence. Voir après pour la nouvelle preuve.

Dans votre cas, Et vous pouvez vérifier que est strictement à dominante diagonale en utilisant l'hypothèse que les entrées de sont positives sur la diagonale et négatives sinon. Pour montrer que les valeurs propres de sont réelles, nous notons que la matrice est auto-adjointe sous le produit intérieurD-1L+V0V0 LD-1L+V0V0 <x,y>:=yTDx.V0V0=1n1n×n.D1L+V0V0LD1L+V0V0<x,y>:=yTDx.

Si n'est pas sous votre forme spécifique, je n'ai pas trouvé de réponse à la question de convergence. Quelqu'un pourrait-il clarifier cela?V0

Notez que est le vecteur eigen correspondant à la valeur propre de . Sur la base de l'observation, nous appelons le théorème 2.1 à partir des valeurs propres des matrices mises à jour de rang 1 avec quelques applications de Jiu Ding et Ai-Hui Zhou. 1 I - D - 1 LV01ID1L

Théorème 2.1 Soit et deux vecteurs de colonnes à dimensions telles que est un vecteur propre de associé à la valeur propre . Ensuite, les valeurs propres de sont comptant la multiplicité algébrique.uvnuAλ1A+uvT{λ1+uTv,λ2,,λn}

Ensuite, nous savons que les spectres de sont les mêmes que sauf que la valeur propre dans ce dernier est décalée de dans la valeur propre zéro dans le premier. Depuis , nous avons .S~ID1L11ρ(ID1L)(1,1]ρ(S~)(1,1)


Merci de répondre. Quelque chose de similaire était ce que j'ai considéré: à savoir, avec le Laplacien pondéré structuré comme le ci-dessus, il pourrait être montré que ses valeurs propres sont dans , donc avec le rayon spectral dans (une valeur propre est supérieure à et au moins une vaut ). Par conséquent, le rayon spectral de la matrice d'itération est inférieur à , donc avec Jacobi convergent. Peut-être que l'hypothèse ci-dessus sur le rayon spectral de (à l'exclusion de ) n'est pas sûre? D1L[0,2)(0,2)00ID1L1ID1L0
usero

Je pense que les spectres de devraient être dans , c'est-à-dire fermés à . Je ne sais pas comment vous pouvez obtenir exclus. De mon point de vue, le (théorème du cercle de Gershgorin) [ en.wikipedia.org/wiki/Gershgorin_circle_theorem] ne peut donner qu'une estimation incluant . Si tel est le cas, l'estimation du rayon spectral de est avec l'atteinte de l' égalité avec les vecteurs dans le noyau de . Je pense que la convergence que vous voulez est que dans l'espace de complément orthogonal comme indiqué dans la «réponse» ci-dessus. D1L[0,2]222ID1L1LV1
Hui Zhang

Vous pouvez jeter un œil au lemme 1.7 (v) de math.ucsd.edu/~fan/research/cb/ch1.pdf La matrice pourrait être considérée comme un laplacien pondéré sur un graphe complet, d'où avec exclus . Je suppose que c'est un argument suffisant pour la preuve de convergence? ........... Votre approche nécessite-t-elle un autre pré / post-traitement des itérations au-delà du centrage . Je demande parce que vous avez introduit Et concernant les spectres de : étant donné que le rayon spectral ( ) de est , l'addition de , donnerait . N'est-ce pas un argument suffisant?D1L2cV0ID1LV0V0srID1L(0,1]1nsr<1
usero

Salut, merci d'avoir pointé un bon livre. Mais j'ai trouvé que je ne pouvais pas y jeter un coup d'œil. À propos de votre dernier argument, il apparaît presque comme la "réponse" ci-dessus. Attention, vous n'ajoutez pas mais , donc ce n'est pas un simple ajout au de l' . Généralement, les de la somme de deux matrices ne sont pas la simple somme des des matrices individuelles. 1n1n1n×nsrID1Lsrsr
Hui Zhang

Heureusement que vous l'avez signalé. Votre approche nécessite-t-elle un autre pré / post-traitement des itérations au-delà du centrage c. Je pose la question parce que vous avez présenté , et je pensais que vous parliez de projeter l'espace nul. Si oui, la projection de l'espace nul est-elle vraiment nécessaire à la convergence? V0
usero

5

Les méthodes Krylov n'utilisent jamais explicitement la dimensionnalité de l'espace dans lequel elles itèrent, vous pouvez donc les exécuter sur des systèmes singuliers tant que vous gardez les itérations dans le sous-espace non nul. Cela se fait normalement en projetant l'espace nul à chaque itération. Il y a deux choses qui peuvent mal tourner, la première est beaucoup plus courante que la seconde.

  1. Le préconditionneur est instable lorsqu'il est appliqué à l'opérateur singulier. Les solveurs directs et la factorisation incomplète peuvent avoir cette propriété. En pratique, nous choisissons simplement différents préconditionneurs, mais il existe des façons plus fondées sur des principes de concevoir des préconditionneurs pour des systèmes singuliers, par exemple Zhang (2010) .
  2. À une certaine itération, est dans le sous-espace non nul, mais vit entièrement dans l'espace nul. Cela n'est possible qu'avec des matrices non symétriques. GMRES non modifié tombe en panne dans ce scénario, mais voir Reichel et Ye (2005) pour les variantes sans panne.xAx

Pour résoudre des systèmes singuliers à l'aide de PETSc, voir KSPSetNullSpace(). La plupart des méthodes et préconditionneurs peuvent résoudre des systèmes singuliers. En pratique, le petit espace nul pour les PDE avec les conditions aux limites de Neumann n'est presque jamais un problème tant que vous informez le solveur Krylov de l'espace nul et choisissez un préconditionneur raisonnable.

D'après les commentaires, il semble que vous soyez spécifiquement intéressé par Jacobi. (Pourquoi? Jacobi est utile comme un lisseur multigrille, mais il existe de bien meilleures méthodes à utiliser comme solveurs.) Jacobi appliqué à ne converge pas lorsque le vecteur a une composante dans l'espace nul de , cependant, le une partie de la solution orthogonale à l'espace nul converge, donc si vous projetez l'espace nul hors de chaque itération, il converge. Alternativement, si vous choisissez un cohérent et une estimation initiale, les itérations (en arithmétique exacte) n'accumulent pas de composants dans l'espace nul.Ax=bbAb


Vous pouvez effectuer un changement de base orthogonal pour qu'il y ait un zéro sur la diagonale (trouver n'importe quelle matrice orthogonale dans laquelle la première colonne est le vecteur constant). Sous cette transformation , la matrice est toujours symétrique positive semi-définie, mais la première entrée diagonale est 0, donc l'application directe de Jacobi échouerait. Puisque est dense, vous ne le feriez pas en pratique, mais cela montre que la base est importante. Si est une base orthogonale pour l'espace nul, le GMRES projeté résout simplement . QA1=QTAQA1A1Z(IZ)P1Ax=(IZ)P1b
Jed Brown

Hmm, il semble que j'ai répondu à un commentaire qui a été supprimé. Je laisse le commentaire ici au cas où cela serait utile.
Jed Brown

Merci pour la réponse, c'est à un niveau spécialisé beaucoup plus élevé que prévu. Par conséquent, j'aurai besoin de quelques guides sur: 1) comment projeter l'espace nul à chaque itération? 2) D'après ce que je comprends, vous avez déclaré que l'application Jacobi au système tel qu'énoncé principalement pourrait ne pas converger vers la solution exacte (c'est-à-dire que les itérands n'obtiennent pas de meilleures estimations de solution). Il est donc suggéré de choisir différents préconditionneurs? Dans l'affirmative, cela implique-t-il pratiquement une vérification dynamique du comportement avec et un changement si un problème survient (avec le cas ci-dessus du système linéaire)? diag(A)
usero

Mon 1) ci-dessus doit être considéré comme: étant donné l'itération Jacobi avec le système principalement posté, est-il nécessaire de projeter l'espace nul et, si oui, comment pourrait-on l'intégrer dans la mise à jour ? Post-traiter l'itération et considérer la version post-traitée pour ? X k + 1 X kXk+1=D1(b(AD)Xk)Xk+1Xk
usero

1
Dans une base raisonnable, Jacobi devrait être stable. Il peut également utiliser 1 sur la diagonale si l'élément matriciel diagonal est 0, la projection supprime toujours l'espace nul. Envisagez-vous d'utiliser une méthode Krylov comme CG ou GMRES? Sinon, pourquoi pas? Si vous l'êtes, vous avez juste besoin d'une base orthogonale pour l'espace nul. Vous n'avez que le mode constant dans votre espace nul, donc un projecteur orthogonal dans l'espace nul est où est le vecteur de colonne. Le projecteur orthogonal qui supprime l'espace nul est donc . (Mon premier commentaire avait une erreur, si est la base, est le projecteur.) Z I - N Z N = I - Z Z TN=ZZTZINZN=IZZT
Jed Brown
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.