De telles normes n'existent pas, car des estimations d'erreur fiables coûtent souvent beaucoup plus cher que les calculs approximatifs.
Il existe essentiellement quatre types d'estimations d'erreur:
(i) Analyses théoriques prouvant qu'une méthode numérique est numériquement stable. Cela ne donne pas vraiment une barre d'erreur car l'analyse garantit uniquement que l'erreur commise n'est pas pire qu'une erreur quantifiée dans les arguments d'entrée. Cela suffit pour la plupart des calculs scientifiques, car les entrées sont également approximatives, de sorte que l'erreur commise avec une méthode numériquement stable n'est pas pire que d'avoir utilisé une entrée légèrement différente (mais inconnue). Les méthodes numériques les plus réputées sont accompagnées d'une analyse numérique stable, bien que l'on ne trouve pratiquement aucune implémentation qui rend compte sur demande de la soi-disant erreur rétrograde résultante.
(ii) Estimation de l'erreur asymptotique. Celles-ci supposent que les produits de toutes les erreurs (les erreurs de saisie, les erreurs d'arrondi ou de discrétisation étant les sources les plus courantes) peuvent être négligés (discutable si les fonctions sont très non linéaires), et utilisent une analyse de sensibilité pour propager les erreurs de saisie. Associée à une analyse de stabilité numérique, elle permet également de saisir l’effet des erreurs d’arrondi ou de discrétisation. Les barres d'erreur résultantes sont aussi réaliables que la validité des hypothèses sur lesquelles elles sont basées. À l'aide d'outils de différenciation automatique, le coût de l'estimation de l'erreur est généralement 1 ou 2, en plus du coût de l'approximation. Ainsi, ce type d’estimation d’erreur est assez fréquent dans la pratique.
[Éditer] Par exemple, le théorème de Oettli-Prager donne des estimations d'erreur rétrocédent facilement calculables pour la solution de systèmes linéaires. L'analyse de sensibilité indique que ces erreurs doivent être multipliées par la norme de l'inverse de la matrice, qui peut être estimée à l'aide de l'estimateur de Hager (intégré dans les estimateurs modernes du nombre de conditions).
(iii) Analyse d'erreur stochastique: (CESTAC, http://www.sciencedirect.com/science/article/pii/0378475488900705) Ceci est effectué en surchargeant toutes les opérations avec une variante stochastique correspondante qui évalue trois jeux d'arguments et ajoute ensuite une erreur artificielle d'arrondi aléatoire. Les trois derniers résultats servent à calculer une moyenne et un écart-type à la racine carrée de (somme des carrés des écarts par rapport à la moyenne divisée par 2 = 3-1). Cela donne une estimation assez utile de la précision de la partie erreur d’arrondi. Cela ne tient cependant pas compte de l'erreur de discrétisation, qui est généralement l'erreur dominante dans les calculs ODE et PDE. Le coût dépend du langage de programmation en raison de la surcharge liée à l'exécution d'opérations surchargées. En supposant (ce qui n’est presque jamais le cas) que la surcharge n’entraîne aucune pénalité temporelle, le coût du résultat et de l’erreur estimée est un facteur de 3 par rapport au calcul de l’approximation uniquement.
(iv) Analyse par intervalles: ceci donne des limites rigoureuses pour toutes les sources d'erreur si cela est fait correctement, mais, sauf dans des cas simples, une longue expérience (ou un logiciel l'incarnant) est nécessaire pour le faire de manière à ce que les limites ne surestiment pas sérieusement les erreurs vraies. . Un bon logiciel d'intervalle est disponible, entre autres, pour l'algèbre linéaire (par exemple, IntLab http://www.ti3.tu-harburg.de/rump/intlab/ ; coût un facteur d'environ 6 si la dimension est grande) et l'optimisation globale (par exemple , COCONUT http://www.mat.univie.ac.at/~coconut/coconut-environment/; peut être beaucoup plus cher ou même être moins cher que l'optimisation globale approximative, en fonction des caractéristiques du problème). Mais de nombreuses autres catégories de problèmes faciles à traiter avec précision (par exemple, en englobant les trajectoires des grandes planètes du système solaire sur 10 ans) sont complètement hors de portée pour la génération actuelle de méthodes à intervalles.