Je voudrais prédire les temps d'exécution des opérations d'algèbre linéaire dense sur une architecture spécifique en utilisant une bibliothèque spécifique. Je voudrais apprendre un modèle qui se rapproche de la fonction
tailles d'entrée runtime
pour des opérations telles que multiplication matricielle, ajout par élément, résolution triangulaire, etc.
Je soupçonne que ces temps d'exécution sont généralement prévisibles en raison de la régularité des opérations une fois que vous avez dépassé les tailles de problème qui tiennent confortablement dans le cache.
Des questions:
- Cette hypothèse est-elle réaliste? La fonction d'exécution est-elle susceptible d'être presque déterministe?
- Puis-je supposer que cette fonction sera polynomiale dans les tailles des entrées? (c'est-à-dire que je m'attends à ce que la matrice dense se multiplie pour ressembler à pour et certain coefficient scalaire)
- Y a-t-il un travail préexistant quelque part?
- Mon plan actuel est de faire une régression des moindres carrés avec un régularisateur . D'autres suggestions?
Edit: pour être clair, je recherche des temps d'exécution, pas des FLOP ou toute autre mesure de performance courante. Je suis prêt à me limiter à une architecture particulière.