Comme vous le savez, il existe de nombreuses anomalies pour les machines de Turing à bande unique lorsque le temps est : simulation multi-bande TM, simulation d'un alphabet de bande plus grand avec seulement , constructibilité temporelle, non-étanchéité du théorème de la hiérarchie temporelle, ...
Également des résultats comme , et des limites inférieures de temps très spécifiques au modèle pour des problèmes simples (qui ne se traduisent pas par des limites inférieures même super-linéaires sur deux bande TM).
Pour la complexité de l'espace, nous utilisons un modèle où nous avons une bande d'entrée en lecture seule séparée, qui est plus naturelle et plus robuste.
Un modèle de MT avec plusieurs bandes (ou au moins 2 bandes de travail) serait beaucoup plus robuste et ne conduirait pas à des anomalies comme celles que j'ai énumérées ci-dessus. J'ai demandé une fois à un éminent théoricien de la complexité qui a prouvé des résultats de simulation dans les premières années de la théorie de la complexité s'il connaissait des améliorations sur l'un de ces anciens résultats et la réponse a été qu'il ne pense pas que "les questions sur le modèle à une bande sont que important".
Si nous modifions le modèle standard de complexité temporelle en deux MT de bande, les résultats raisonnables de la théorie de la complexité ne changeront pas et nous éviterons ces anomalies causées par un modèle particulier. Ma question est donc:
y a-t-il une raison pour laquelle la complexité temporelle est toujours définie en termes de MT à bande unique? (autres que des raisons historiques)