J'ai eu du mal à accepter la vue théorique de la complexité de "efficacement résolue par algorithme parallèle" qui est donnée par la classe NC :
NC est la classe des problèmes qui peuvent être résolus par un algorithme parallèle dans le temps à p ( n ) ∈ S ( n k ) processeurs avec c , k ∈ N .
Nous pouvons assumer un PRAM .
Mon problème est que cela ne semble pas en dire long sur les "vraies" machines, c'est-à-dire les machines avec une quantité limitée de processeurs. Maintenant , on me dit que « on sait » que nous pouvons « efficacement » simuler un algorithme de processeur p ∈ N processeurs.
Que signifie "efficacement" ici? Est-ce du folklore ou existe-t-il un théorème rigoureux qui quantifie les frais généraux causés par la simulation?
Ce qui me fait peur, c'est que j'ai un problème qui a un algorithme séquentiel et aussi un algorithme parallèle "efficace" qui, lorsqu'il est simulé sur p processeurs, prend également du temps O ( n k ) (ce qui est tout ce qui peut être attendu à ce niveau d'analyse de granularité si l'algorithme séquentiel est asymptotiquement optimal). Dans ce cas, il n'y a aucune accélération de ce que nous pouvons voir; en fait, l'algorithme parallèle simulé peut être plus lent que l'algorithme séquentiel. C'est-à-dire que je recherche vraiment des déclarations plus précises que les O- Bounds (ou une déclaration d'absence de tels résultats).