Comment les tableaux Python / Numpy évoluent-ils avec des dimensions de tableau croissantes?
Ceci est basé sur un comportement que j'ai remarqué lors de l'analyse comparative du code Python pour cette question: Comment exprimer cette expression compliquée à l'aide de tranches numpy
Le problème concernait principalement l'indexation pour remplir un tableau. J'ai trouvé que les avantages de l'utilisation (pas très bonne) des versions Cython et Numpy sur une boucle Python variaient en fonction de la taille des tableaux impliqués. Numpy et Cython connaissent un avantage de performance croissant jusqu'à un certain point (quelque part largement autour de pour Cython et N = 2000 pour Numpy sur mon ordinateur portable), après quoi leurs avantages ont diminué (la fonction Cython est restée la plus rapide).
Ce matériel est-il défini? En termes de travail avec de grands tableaux, quelles sont les meilleures pratiques à respecter pour le code où les performances sont appréciées?
Cette question ( pourquoi mon échelle de multiplication matricielle-vectorielle? ) Peut être liée, mais je suis intéressé à en savoir plus sur les différentes façons de traiter les tableaux à l'échelle Python les uns par rapport aux autres.