Selon Wikipedia, le taux de convergence est exprimé comme un rapport spécifique de normes vectorielles. J'essaie de comprendre la différence entre les taux "linéaires" et "quadratiques", à différents moments (en gros, "au début" de l'itération et "à la fin"). Pourrait-on dire que:
avec convergence quadratique, la norme de l'erreur de l'itération est bornée par
Une telle interprétation signifierait que, avec quelques (petit nombre) itérations de l'algorithme de convergence linéaire A1 (initialisation aléatoire supposée), une erreur plus petite serait obtenue qu'avec quelques itérations de l'algorithme de convergence quadratical A2. Cependant, puisque l'erreur diminue, et en raison de la quadrature, des itérations ultérieures signifieraient une erreur plus petite avec A2.
L'interprétation ci-dessus est-elle valable? Notez qu'il ne tient pas compte du coefficient de taux .