Profilage de code CFD avec Callgrind


16

J'utilise Valgrind + Callgrind pour profiler un solveur que j'ai écrit. Comme l'indique le manuel de l'utilisateur de Valgrind, j'ai compilé mon code avec les options de débogage du compilateur:

"Sans informations de débogage, les meilleurs outils Valgrind seront capables de deviner à quelle fonction appartient un morceau de code particulier, ce qui rend les messages d'erreur et la sortie de profilage presque inutiles. Avec -g, vous obtiendrez des messages qui pointent directement vers les lignes de code source pertinentes. "

Manuel Valgrind

Une fois compilés avec l'option de débogage, les codes s'exécutent beaucoup plus lentement. Le code CFD devient VRAIMENT lent, même pour les petits cas lorsqu'il est compilé avec des indicateurs de débogage. Valgrind le rend 40 fois plus lent (voir le manuel 1 ).

  1. Quels outils utilisez-vous pour le profilage de code (profilage, pas d'analyse comparative)?

  2. Combien de temps laissez-vous le code s'exécuter (statistiques: combien de pas de temps)?

  3. Quelle est la taille des boîtiers (si le boitier tient dans le cache, le solveur est de plusieurs ordres de grandeur plus rapide, mais alors je manquerai les processus liés à la mémoire)?


3
Vous pouvez compiler le code avec les symboles de débogage et l'optimisation activés. Pourtant, 40x via valgrind (qui simule tous les accès à la mémoire) n'est pas déraisonnable.
Aron Ahmadia

Merci, c'est ce que j'ai lu aussi ... ce que j'aimerais savoir, ce sont des informations sur les expériences quotidiennes de profilage (avec valgrind de préférence): combien de temps est normal d'attendre les rapports, combien d'itérations compte ai-je besoin, que puis-je exclure ... etc ...
tmaric

Votre question est également un peu large. Je recommande de modifier votre question pour se concentrer sur Q2.1 et Q2.2, car Q1 est une question complètement différente (je suis heureux que vous la posiez séparément, c'est une bonne question, mais formulez-la comme "Quels outils voudriez-vous utiliser pour résoudre le problème X ", où X est bien décrit!), tandis que Q2 seul est trop général.
Aron Ahmadia

Pouvez - vous modifier également le nom callgrind, cachegrindou massif. Beaucoup de gens associent Valgrind uniquement avec l'outil par défaut ( memcheck). En tant que système de profilage basé sur l'émulation (plutôt que sur l'interruption), vous ne devriez pas avoir besoin de courir longtemps.
Jed Brown

@Aron & Jed: merci pour les conseils, j'ai édité la question. :)
tmaric

Réponses:


11

Q1: Quels outils utilisez-vous pour le profilage de code (profilage, pas d'analyse comparative)?

Q2: Combien de temps laissez-vous le code s'exécuter (statistiques: combien de pas de temps)?

Q3: Quelle est la taille des boîtiers (si le boîtier tient dans le cache, le solveur est plus rapide de plusieurs ordres de grandeur, mais les processus liés à la mémoire me manqueront)?

Voici un exemple de la façon dont je le fais.

Je sépare le benchmarking (voir combien de temps cela prend) du profilage (identifiant comment le rendre plus rapide). Il n'est pas important que le profileur soit rapide. Il est important qu'il vous dise quoi corriger.

Je n'aime même pas le mot "profilage" car il évoque une image quelque chose comme un histogramme, où il y a une barre de coût pour chaque routine, ou "goulot d'étranglement" car cela implique qu'il n'y a qu'une petite place dans le code qui doit être fixé. Ces deux éléments impliquent une sorte de synchronisation et de statistiques, pour lesquelles vous supposez que la précision est importante. Il ne vaut pas la peine de renoncer à la précision de la synchronisation.

La méthode que j'utilise est la pause aléatoire, et il y a une étude de cas complète et un diaporama ici . Une partie de la vision du monde du goulot d'étranglement du profileur est que si vous ne trouvez rien, il n'y a rien à trouver, et si vous trouvez quelque chose et obtenez un certain pourcentage d'accélération, vous déclarez la victoire et quittez. Les fans du profileur ne disent presque jamais combien d'accélération ils obtiennent, et les publicités ne montrent que des problèmes artificiellement conçus pour être faciles à trouver. Une pause aléatoire trouve les problèmes qu'ils soient faciles ou difficiles. Ensuite, la résolution d'un problème en expose d'autres, de sorte que le processus peut être répété, pour obtenir une accélération composée.

D'après mon expérience à partir de nombreux exemples, voici comment cela se passe: je peux trouver un problème (par une pause aléatoire) et le résoudre, en obtenant une accélération de quelques pour cent, disons 30% ou 1,3x. Ensuite, je peux le faire à nouveau, trouver un autre problème et le résoudre, obtenir une autre accélération, peut-être moins de 30%, peut-être plus. Ensuite, je peux le refaire, plusieurs fois jusqu'à ce que je ne trouve vraiment rien d'autre à réparer. Le facteur d'accélération ultime est le produit courant des facteurs individuels, et il peut être incroyablement grand - des ordres de grandeur dans certains cas.

INSÉRÉ: Juste pour illustrer ce dernier point. Il y a un exemple détaillé ici , avec un diaporama et tous les fichiers, montrant comment une accélération de 730x a été obtenue dans une série de suppressions de problèmes. La première version a pris 2700 microsecondes par unité de travail. Le problème A a été supprimé, ramenant le temps à 1800 et agrandissant le pourcentage des problèmes restants de 1,5 fois (2700/1800). Puis B a été retiré. Ce processus s'est poursuivi en six itérations, entraînant une accélération de près de 3 ordres de grandeur. Mais la technique de profilage doit être vraiment efficace, car si aucun de ces problèmes n'est trouvé, c'est-à-dire si vous atteignez un point où vous pensez à tort que rien de plus ne peut être fait, le processus s'arrête.

Description de la suppression de plusieurs problèmes pour obtenir une accélération importante

INSÉRÉ: Pour le dire autrement, voici un graphique du facteur d'accélération total à mesure que les problèmes successifs sont supprimés:

entrez la description de l'image ici

Donc, pour Q1, pour l'analyse comparative, un simple temporisateur suffit. Pour le "profilage", j'utilise une pause aléatoire.

Q2: Je lui donne suffisamment de charge de travail (ou je mets simplement une boucle autour de lui) afin qu'il fonctionne suffisamment longtemps pour faire une pause.

Q3: par tous les moyens, donnez-lui une charge de travail réaliste pour ne pas manquer les problèmes de cache. Ceux-ci apparaîtront comme des exemples dans le code faisant les récupérations de mémoire.


Mike, avez-vous une préférence pour la façon de faire une pause aléatoire en l'absence d'un IDE visuel? Ce processus peut-il être automatisé d'une manière ou d'une autre?
Matthew Emmett

@Matthew: Je comprends qu'il existe des outils comme pstacket lsstack, mais je considère vraiment que c'est un processus plus commun avec le débogage. Donc, même si le meilleur débogueur que je puisse apporter est gdb, il fait le travail. Avec un débogueur, vous pouvez examiner les données, et cela peut faire la différence lorsque la pile seule ne vous en dit pas assez.
Mike Dunlavey

9

Le profileur du pauvre est essentiellement un gdbscript qui échantillonne la pile d'appels. Vous aurez toujours besoin d'avoir des symboles de débogage. Il est toujours lent, mais comme il n'implémente pas de machine virtuelle pour exécuter le code, il est souvent plus rapide callgrindet adéquat pour la tâche.

J'ai rencontré des analyseurs de physique des particules avec un succès modeste (c'est-à-dire que j'ai démontré que le code n'avait pas de points chauds horribles et que l'optimisation allait nécessiter un meilleur algorithme).


1
+ L'absence de preuves n'est pas une preuve d'absence :) Ce que le profileur du pauvre devrait faire, c'est de prendre moins de traces et de ne pas les effondrer, mais laissez-les voir. L'œil humain est bien meilleur pour détecter les modèles utiles que les simples estimations de temps de fonction, et si vous voyez quelque chose que vous pourriez améliorer sur seulement 2 échantillons, cela vous aidera considérablement. La fraction X qu'il sauvera est une distribution bêta avec le mode 2 / N, où N est le nombre de traces que vous avez examinées, et le facteur d'accélération sera 1 / (1-X), qui peut être important.
Mike Dunlavey

2

Pour ajouter aux bonnes réponses disponibles, il existe un outil développé chez Rice qui automatise l'échantillonnage de pile et a donc très peu de frais généraux:

http://hpctoolkit.org/


Cela a l'air bien, bien que (désolé), j'ai mis mon chapeau de flamme ici. Je ne syntonise pas sur le code optimisé pour le compilateur car il est difficile de voir ce qui se passe dans le code mutilé. Les choses que je taille ne sont pas des choses que l'optimiseur pourrait traiter - comme appeler expet logavec les mêmes arguments à plusieurs reprises, ou les opérations matricielles consacrant tout leur temps aux options de décodage. J'accorde autant que je peux, puis j'allume -O3.
Mike Dunlavey

Les outils sont des outils et ne sont utiles que si l'utilisateur connaît et comprend leurs limites. Je ne pense pas qu'il y aura jamais un "profileur parfait" qui supprimera complètement l'utilisateur de l'équation en ce qui concerne la compréhension de sa sortie et la manière d'utiliser les informations.
Reid.Atcheson

1

Allinea MAP est un profileur d'échantillonnage développé et pris en charge commercialement et donc - comme HPC Toolkit suggéré dans une réponse précédente - peut fonctionner sur des travaux de taille de production si vous le souhaitez.

Ce type d'outil indique des goulots d'étranglement du processeur ou une mauvaise communication MPI, mais également la surveillance complète du profilage de l'ensemble du travail peut être inestimable pour trouver des problèmes de surprise.

Il y a souvent des fruits de performance peu coûteux à l'extérieur du noyau du code CFD, dans des domaines qui n'étaient pas attendus. L'échantillonnage aléatoire des piles est - qu'il soit fait manuellement avec GDB ou avec des outils comme HPC Toolkit et Allinea MAP - le meilleur moyen de les trouver. Si quelque chose est important pour la performance, il apparaîtra.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.