En 1937, Turing décrit une machine de Turing. Depuis lors, de nombreux modèles de calcul ont été décrits dans le but de trouver un modèle ressemblant à un vrai ordinateur, mais suffisamment simple pour concevoir et analyser des algorithmes.
En conséquence, nous avons une douzaine d'algorithmes pour, par exemple, le problème SORT pour différents modèles de calcul. Malheureusement, nous ne pouvons même pas être sûrs qu'une implémentation d'un algorithme avec le temps d'exécution O (n) dans un mot RAM avec des opérations de vecteur de bits autorisées fonctionnera plus rapidement qu'une implémentation d'un algorithme avec le temps d'exécution O (n⋅logn) dans un mot RAM (je parle bien sûr de "bonnes" implémentations).
Je veux donc savoir lequel des modèles existants est "le meilleur" pour concevoir des algorithmes et je recherche une étude à jour et détaillée sur les modèles de calcul, qui donne le pour et le contre des modèles et de leur proximité avec la réalité.