Petits résultats imprévisibles dans les exécutions d'un modèle déterministe


10

J'ai un modèle non négligeable (~ 5000 lignes) écrit en C. C'est un programme en série, sans génération de nombre aléatoire nulle part. Il utilise la bibliothèque FFTW pour les fonctions utilisant FFT - Je ne connais pas les détails de l'implémentation FFTW, mais je suppose que les fonctions y sont également déterministes (corrigez-moi si je me trompe).

Le problème que je ne peux pas comprendre est que j'obtiens de petites différences dans les résultats pour des exécutions identiques sur la même machine (même compilateur, mêmes bibliothèques).

J'utilise des variables de double précision, et pour sortir le résultat en variable valuepar exemple, j'émets: fprintf(outFID, "%.15e\n", value);ou
fwrite(&value, 1, sizeof(double), outFID);

Et j'obtiendrais constamment des différences telles que:
2.07843469652206 4 e-16 contre 2.07843469652206 3 e-16

J'ai passé beaucoup de temps à essayer de comprendre pourquoi. J'ai d'abord pensé qu'une de mes puces mémoire avait mal tourné, et je les ai commandées et remplacées, en vain. Par la suite, j'ai également essayé d'exécuter mon code sur la machine Linux d'un collègue, et j'obtiens des différences de même nature.

Qu'est-ce qui peut causer cela? C'est un petit problème maintenant, mais je me demande si c'est la "pointe de l'iceberg" (d'un problème grave).

Je pensais que je publierais ici au lieu de StackOverflow au cas où quelqu'un travaillant avec des modèles numériques aurait pu rencontrer ce problème. Si quelqu'un peut faire la lumière là-dessus, je serais très obligé.

Suivi des commentaires:
Christian Clason et Vikram: tout d'abord, merci de votre attention à ma question. Les articles que vous avez liés suggèrent que: 1. les erreurs d'arrondi limitent la précision, et 2. un code différent (tel que l'introduction d'instructions d'impression apparemment inoffensives) peut affecter les résultats jusqu'à la machine epsilon. Je dois préciser que je ne compare pas les effets fwriteet les fprintffonctions. J'utilise l'un OU l'autre. En particulier, le même exécutable est utilisé pour les deux exécutions. Je déclare simplement que le problème se produit si j'utilise fprintfOR fwrite.

Ainsi, le chemin du code (et l'exécutable) est le même et le matériel est le même. Avec tous ces facteurs externes maintenus constants, d'où vient l'aléatoire, fondamentalement? Je soupçonnais que le retournement de bits était dû à une mémoire défectueuse qui ne se retenait pas correctement, c'est pourquoi j'ai remplacé les puces de mémoire, mais cela ne semble pas être le problème ici, j'ai vérifié et vous l'avez indiqué. Mon programme génère des milliers de ces nombres en double précision en une seule fois, et il y a toujours une poignée aléatoire qui a des retournements de bits aléatoires.

Suivi du premier commentaire de Christian Clason: Pourquoi -il identique à 0 dans la précision de la machine? Le plus petit nombre positif pour un double est 2,22e-308, alors cela ne devrait-il pas être égal à 0? Mon programme génère des milliers de valeurs dans la gamme 10 ^ -16 (allant de 1e-15 à 8e-17) et nous avons vu des variations significatives dans notre projet de recherche, donc j'espère que nous n'avons pas regardé de manière absurde Nombres.2dix-16

Suivi # 2 :
Ceci est un tracé de la série chronologique produite par le modèle, pour aider à la discussion de ramification dans les commentaires. entrez la description de l'image ici


Bienvenue sur SciComp.SE! Savez-vous que les nombres à virgule flottante ont une précision limitée - en particulier, qu'en double précision, est égal à zéro jusqu'à la précision de la machine? Les différences que vous signalez ne sont donc pas vraiment significatives et sont probablement dues à de légères différences dans les implémentations des deux fonctions que vous nommez, ce qui conduit à un code machine légèrement différent. 2dix-16
Christian Clason

Vous demandez pourquoi votre machine n'est pas plus précise que la précision de la machine. en.wikipedia.org/wiki/Machine_epsilon
Vikram

1
Voir inf.ethz.ch/personal/gander/Heisenberg/paper.html pour un exemple connexe de l'influence subtile des chemins de code sur l'arithmétique à virgule flottante. Et, bien sûr, ece.uwaterloo.ca/~dwharder/NumericalAnalysis/02Numerics/Double/…
Christian Clason

1
Il se pourrait bien que l'échelle de votre problème soit telle que les bonnes réponses soient de l'ordre de . Dans tous les cas, vous devez vous concentrer sur la précision relative de vos solutions. dix-16
Brian Borchers

2
@ boxofchalk1 Ils ne ressemblent certainement pas à du bruit; comme l'a dit Brian, si toutes vos données sont de cet ordre de grandeur, vous pourriez aller bien (encore une fois, il s'agit d'une précision relative ). Pour vous en assurer, vous pouvez soit redimensionner votre problème pour qu'il soit d'ordre , soit réexécuter votre code avec une précision étendue (voir fftw.org/doc/Precision.html ). 1
Christian Clason

Réponses:


9

Il y a des aspects des systèmes informatiques modernes qui sont intrinsèquement non déterministes qui peuvent provoquer ce genre de différences. Tant que les différences sont très faibles par rapport à la précision requise de vos solutions, il n'y a probablement aucune raison de s'en inquiéter.

Un exemple de ce qui peut mal tourner d'après ma propre expérience. Considérons le problème du calcul du produit scalaire de deux vecteurs x et y.

=je=1nXjeyje

Xjeyje

Par exemple, vous pouvez d'abord calculer le produit de deux vecteurs comme

=((X1y1)+(X2y2))+(X3y3)

puis comme

=(X1y1)+((X2y2)+(X3y3))

Comment cela pourrait-il arriver? Voici deux possibilités.

  1. Calculs multithread sur coeurs parallèles. Les ordinateurs modernes ont généralement 2, 4, 8 ou même plus de cœurs de processeur qui peuvent fonctionner en parallèle. Si votre code utilise des threads parallèles pour calculer un produit scalaire sur plusieurs processeurs, toute perturbation aléatoire du système (par exemple, l'utilisateur a déplacé sa souris et l'un des cœurs de processeur doit traiter ce mouvement de la souris avant de revenir au produit scalaire) pourrait entraîner un changement dans l'ordre des ajouts.

  2. ALignement des données et des instructions vectorielles. Les processeurs Intel modernes ont un ensemble spécial d'instructions qui peuvent fonctionner (par exemple) pour les nombres à virgule flottante à la fois. Ces instructions vectorielles fonctionnent mieux si les données sont alignées sur des limites de 16 octets. En règle générale, une boucle de produit scalaire diviserait les données en sections de 16 octets (4 flottants à la fois.) Si vous réexécutez le code une deuxième fois, les données pourraient être alignées différemment avec les blocs de mémoire de 16 octets afin que les ajouts soient effectué dans un ordre différent, résultant en une réponse différente.

Vous pouvez aborder le point 1 en faisant fonctionner votre code comme un seul thread et en désactivant tous les traitements parallèles. Vous pouvez aborder le point 2 en exigeant l'allocation de mémoire pour aligner les blocs de mémoire (en général, vous le feriez en compilant le code avec un commutateur tel que -align.) Si votre code donne toujours des résultats qui varient, il existe d'autres possibilités de recherche à.

Cette documentation d'Intel traite des problèmes pouvant entraîner une non reproductibilité des résultats avec la bibliothèque Intel Math Kernel. Un autre document d'Intel qui traite des commutateurs de compilateur à utiliser avec les compilateurs d'Intel.


Je vois que vous pensez que votre code fonctionne sur un seul thread. Bien que vous connaissiez probablement bien votre code, je ne serais pas surpris si vous appeliez des sous-programmes (par exemple des routines BLAS) qui fonctionnent en multithread. Vous devriez vérifier pour voir exactement quelles bibliothèques vous utilisez. Vous pouvez également utiliser des outils de surveillance du système pour voir votre utilisation du processeur.
Brian Borchers

1
ou, comme indiqué, la bibliothèque FFTW ...
Christian Clason

@BrianBorchers, merci. L'exemple du caractère aléatoire provenant de la nature non associative de l'addition en virgule flottante est révélateur. Christian Clason a soulevé une question secondaire sur la pertinence de la sortie de mon modèle, compte tenu de l'ampleur des chiffres - cela pourrait être un problème majeur s'il a raison (et je le comprends correctement), donc j'examine la question maintenant.
boxofchalk1

2

La bibliothèque FFTW mentionnée peut s'exécuter en mode non déterministe.

Si vous utilisez le mode FFTW_MEASURE ou FFTW_PATIENT, les programmes vérifient au moment de l'exécution, quelles valeurs de paramètre fonctionnent le plus rapidement, puis utiliseront ces paramètres dans l'ensemble du programme. Parce que le temps d'exécution fluctuera évidemment un peu, les paramètres seront différents et le résultat des transformées de Fourier sera non déterministe. Si vous voulez une FFTW déterministe, utilisez le mode FFTW_ESTIMATE.


1

S'il est vrai que les changements d'ordre d'évaluation des termes d'expression peuvent très bien se produire en raison de scénarios de traitement multicœur / multithread, n'oubliez pas qu'il peut y avoir (même si c'est une longue perspective) une sorte de faille de conception matérielle au travail. Rappelez-vous le problème Pentium FDIV? (Voir https://en.wikipedia.org/wiki/Pentium_FDIV_bug ). Il y a quelque temps, j'ai travaillé sur un logiciel de simulation de circuits analogiques basé sur PC. Une partie de notre méthodologie consistait à développer des suites de tests de régression, que nous exécuterions contre les versions nocturnes du logiciel. Avec de nombreux modèles que nous avons développés, des méthodes itératives (par exemple Newton-Raphson ( https://en.wikipedia.org/wiki/Newton%27s_method)) et Runge-Kutta) ont été largement utilisés dans les algorithmes de simulation. Avec les appareils analogiques, il arrive souvent que des artefacts internes, tels que des tensions, des courants, etc., se produisent avec des valeurs numériques extrêmement petites. Ces valeurs, dans le cadre du processus de simulation, varient de façon incrémentielle dans le temps (simulé). L'amplitude de ces changements peut être extrêmement faible, et ce que nous avons souvent observé, c'est que les opérations FPU ultérieures sur de telles valeurs delta bordaient le seuil de "bruit" de la précision du FPU (le flottant 64 bits a une mantisse 53 bits, IIRC). Ceci, couplé au fait que nous devions souvent introduire du code de journalisation "PrintF" dans les modèles pour permettre le débogage (ah, les bons vieux jours!), Des résultats sporadiques pratiquement garantis, au quotidien! Et alors' s tout cela signifie? Vous devez vous attendre à voir des différences dans de telles circonstances, et la meilleure chose à faire est de définir et de mettre en œuvre un moyen de décider (ampleur, fréquence, tendance, etc.) quand / comment les ignorer.


Merci, Jim pour la perspicacité. Avez-vous des idées sur quels phénomènes fondamentaux pourraient provoquer de tels "artefacts internes"? Je pensais que les interférences électromagnétiques pourraient en être une, mais des bits importants seraient également affectés, non?
boxofchalk1

1

Bien que l'arrondi à virgule flottante des opérations asynchrones puisse être le problème, je soupçonne que c'est quelque chose de plus banal. L'utilisation d'une variable non initialisée qui ajoute du caractère aléatoire à votre code par ailleurs déterministe. Il s'agit d'un problème courant qui est souvent ignoré par les développeurs car lorsque vous exécutez en mode débogage, toutes les variables sont initialisées à 0 lors de la déclaration. Lorsqu'elle n'est pas exécutée en mode débogage, la mémoire affectée à une variable a la valeur que la mémoire avait avant l'affectation. La mémoire n'est pas mise à zéro lors de l'affectation en tant qu'optimisation. Si cela se produit dans votre code, ce sera facile à corriger, moins dans le code des bibliothèques.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.