J'ai eu un aperçu de l'analyse numérique (principalement, des méthodes numériques comme la recherche de racines, les équations quadratiques et d'autres choses préliminaires) dans ma classe de calcul, mais maintenant, je me retrouve à vouloir plus de sophistication dans mon travail.
Existe-t-il un bon livre qui m'aidera à comprendre des concepts tels que la stabilité des algorithmes, la conception d'algorithmes stables, la propagation des erreurs, l'analyse de convergence, etc. d'un point de vue plus général?
Essentiellement, je veux être en mesure de mieux comprendre et analyser les méthodes de sous-espace de Krylov (QMR, GMRES et CG) et quelques algorithmes d'optimisation non linéaire. Surtout, comment l'approximation en virgule flottante fait une différence pour les algorithmes.
Le problème avec la plupart des livres que j'ai vus est qu'ils partent du principe que le lecteur ne sait rien de l'algèbre linéaire et qu'ils continuent dans les bases de LU, élimination gaussienne, QR, etc. dont je n'ai pas besoin. Ce que je veux, c'est plus une "vue d'ensemble" de l'analyse numérique sans entrer dans les détails de méthodes spécifiques. La brièveté serait très appréciée.