Thèse Eglise-Turing étendue


35

Une des questions les plus discutées sur le site a été Qu'est-ce que cela signifierait de réfuter la thèse de Church-Turing ? C'est en partie parce que Dershowitz et Gurevich ont publié une preuve de la thèse de Church-Turing est le Bulletin de la logique symbolique de 2008. (Je n'en discuterai pas ici, mais pour un lien et des commentaires détaillés, veuillez consulter la question initiale, ou - - auto-promotion sans vergogne - une entrée de blog que j'ai écrite.)

Cette question concerne la thèse de l'Église-Turing étendue , qui, comme l'a formulé Ian Parberry, est:

Le temps sur tous les modèles de machines "raisonnables" est lié par un polynôme.

Grâce à Giorgio Marinelli, j’ai appris qu’un des coauteurs du précédent article, Dershowitz, et son doctorant, Falkovich, avaient publié une preuve de la thèse de l’église élargie de Turing, qui venait de paraître à l’atelier Developments of Modèles de calcul 2011 .

Je viens d'imprimer le papier ce matin et je l'ai écrémé, rien de plus. Les auteurs affirment que les machines de Turing peuvent simuler n’importe quel dispositif de calcul séquentiel avec un surcoût au plus polynomial. Le calcul quantique et le calcul parallèle à grande échelle ne sont pas explicitement couverts. Ma question concerne l'affirmation suivante dans le document.

Nous avons montré - comme on l'a supposé et largement admis - que toute implémentation efficace, quelle que soit la structure de données utilisée, peut être simulée par une machine de Turing, avec au maximum une surcharge de temps polynomiale.

Ma question est donc la suivante: s’agit-il vraiment d’un "grand" calcul séquentiel sans "randomisation"? Et si les choses sont aléatoires? L'informatique quantique constituerait probablement un contre-exemple si elle pouvait effectivement être instanciée, mais existe-t-il des possibilités "plus faibles" que celles quantiques qui seraient également des contre-exemples?


1
Il y a eu beaucoup de discussions sur la dérandomisation ou l'élimination des composants aléatoires des algorithmes aléatoires. Par exemple, voir ( bit.ly/rjx5YZ ), j’avais posé la question à Lance Fortnow à la théorie du midwest sur la déquantification, ce qui n’avait aucun sens. Mais cela a suscité une bonne discussion ici ( bit.ly/nT0BnK ), mais il existe des pistes plus fructueuses. Le lauréat du prix Leslie Valiant Turing 2011 ( bit.ly/nSyffN ) est un exemple de possibilité plus faible liée aux algorithmes quantiques .
Joshua Herman le

1
@Joshua, l'ACM vient de publier la conférence Turing 2011 de Valiant (URL: awards.acm.org/… ); ça vaut la peine de regarder. Pour une perspective appliquée, reportez-vous aux articles récents de JMR publiés par Ilya Kuprov et ses collaborateurs: Algorithme de simulation de dynamique de spin à échelons polynomiaux basé sur la restriction adaptative d'espace-état et dynamique de spin à échelons polynomiaux II: Compression supplémentaire de l'espace d'état à l'aide de techniques de sous-espace de Krylov et élimination de piste nulle . Cette lente convergence entre CT / QIT "pure" et "appliquée" est pratiquement importante et amusante aussi.
John Sidles

Réponses:


44

Rant préparatoire

Je dois vous dire, je ne vois pas en quoi le fait de parler de "preuves" de la CT ou de l'ECT ​​ajoute de la lumière à cette discussion. De telles "preuves" tendent à être exactement aussi bonnes que les hypothèses sur lesquelles elles reposent - en d'autres termes, que ce qu'elles prennent comme termes "calcul" ou "calcul efficace". Alors, pourquoi ne pas passer immédiatement à une discussion des hypothèses et se passer du mot "preuve"?

C’était déjà clair avec le CT original, mais c’est encore plus clair avec le TCE, car non seulement le TCE est «philosophiquement irréalisable», mais aujourd’hui, il est largement considéré comme faux. Pour moi, l'informatique quantique est le contre-exemple énorme et criant qui devrait être le point de départ de toute discussion moderne sur l'ECT, et non un élément mis de côté. Pourtant, le document de Dershowitz et Falkovich ne parle même pas de CQ avant le dernier paragraphe:

    Le résultat ci-dessus ne couvre pas le calcul parallèle à grande échelle, tel que le calcul quantique, car il postule qu'il existe une limite fixe sur le degré de parallélisme, avec le nombre de termes critiques fixés par l'algorithme. La question de la complexité relative des modèles parallèles sera abordée dans un proche avenir.

J'ai trouvé ce qui précède très trompeur: le contrôle de la qualité n'est pas un "modèle parallèle" au sens classique du terme. En mécanique quantique, il n'y a pas de communication directe entre les "processus parallèles" - uniquement les interférences d'amplitudes - mais il est également facile de générer un nombre exponentiel de "processus parallèles". (En fait, on pourrait penser que tous les systèmes physiques de l'univers agissent de la manière dont nous parlons!) Quoi qu'il en soit, quel que soit ce que vous pensez de l'interprétation de la mécanique quantique (ou même de sa vérité ou de son mensonge), il est clair que cela nécessite une analyse séparée. discussion!

Passons maintenant à vos questions (intéressantes)!

Non, je ne connais aucun contre-exemple convaincant à l'ECT ​​autre que l'informatique quantique. En d’autres termes, si la mécanique quantique avait été fausse (d’une manière qui gardait toujours l’univers plus «numérique» que «analogique» à l’échelle de Planck - voir ci-dessous), alors l’ECT, tel que je l’ai compris, ne serait toujours pas "prouvable" (car cela dépendrait toujours de faits empiriques sur ce qui est efficacement calculable dans le monde physique), mais ce serait une bonne hypothèse de travail.

La randomisation ne remet probablement pas en question le TCE tel qu’on le comprend habituellement, en raison de la forte évidence actuelle que P = BPP. (Notez cependant que, si vous êtes intéressé par des paramètres autres que des problèmes de décision linguistique - par exemple, des problèmes relationnels, des arbres de décision ou la complexité de la communication -, la randomisation peut de toute évidence faire toute la différence. Ces paramètres sont parfaitement raisonnables. ceux dont il faut parler, ce ne sont tout simplement pas ceux que les gens pensent généralement lorsqu'ils discutent du TCE.)

L’autre classe de "contre-exemples" de l’ECT souvent évoquée concerne l’informatique analogique ou "hyper". Mon point de vue personnel est que, selon notre meilleure compréhension actuelle de la physique, l'informatique analogique et l'hypercalculateur ne peuvent pas évoluer, et la raison pour laquelle ils ne peuvent pas, paradoxalement, c'est la mécanique quantique! En particulier, bien que nous n'ayons pas encore de théorie quantique de la gravité, les connaissances actuelles suggèrent qu'il existe des obstacles fondamentaux à l'exécution de plus de 10 43 pas de calcul par seconde ou à la résolution de distances inférieures à 10-33 cm environ.

Enfin, si vous voulez supposer hors de la discussion tout ce qui pourrait constituer un défi plausible ou intéressant pour l’ECT et n’autoriser que le calcul en série, discret et déterministe, alors je suis d’accord avec Dershowitz et Falkovich pour dire que l’ECT est valable! :-) Mais même là, il est difficile d’imaginer une "preuve formelle" augmentant ma confiance en cette déclaration - le vrai problème, encore une fois, est justement ce que nous prenons comme mots "en série", "discret" et "déterministe". dire .

Quant à votre dernière question:

    L'informatique quantique constituerait probablement un contre-exemple si elle pouvait effectivement être instanciée, mais existe-t-il des possibilités "plus faibles" que celles quantiques qui seraient également des contre-exemples?

Aujourd'hui, il existe de nombreux exemples intéressants de systèmes physiques qui semblent capables de mettre en œuvre une partie de l'informatique quantique, mais pas tous (donnant des classes de complexité pouvant être intermédiaires entre BPP et BQP). En outre, beaucoup de ces systèmes pourraient être plus faciles à réaliser qu’un CQ universel. Voir par exemple cet article de Bremner, Jozsa et Shepherd, ou celui d'Arkhipov et moi-même.


3
À propos de "preuve": je vois dans le programme de recherche de Dershowitz et al comme essayant de créer un "ZF pour algorithmes", afin d’axiomatiser la notion intuitive d’algorithme. Ensuite, nous pouvons nous demander s'il faut inclure Choix ou Détermination, ou l'existence d'un grand cardinal - quels que soient les analogues informatiques de ces choses. Je crois que la présentation de cette axiomatisation est axée sur les résultats ("regardez, nous pouvons prouver cette thèse célèbre"), mais les auteurs du mémoire de CT-thèse tentent de fournir une justification historique à leurs hypothèses.
Aaron Sterling

1
@ Scott Aaronson Vue intéressante et éclairante sur le QC. Juste curieux. Que faudrait-il pour montrer que le contrôle qualité ne peut pas être un contre-exemple?
vs

10
Tu veux dire, montrer que le QC est impossible? À tout le moins, il faudrait une révision sérieuse de notre compréhension de la mécanique quantique. Cela pourrait signifier la découverte d'une nouvelle théorie physique remplaçant la gestion de la qualité (et donc de restaurer BPP en tant que limite du calcul), ou un principe non encore découvert opérant "au-dessus" ou "parallèlement" de la gestion QM qui interdisait le contrôle de la qualité. De toute façon, les prix Nobel! :)
Scott Aaronson le

J'aime ton commentaire. Il faudra creuser davantage sur le QC. Je suis très naïf sur ce sujet.
vs

1
Un autre modèle quantique intéressant entre le calcul quantique complet et le classique est celui de la théorie de la discorde quantique, comme DQC1.
Marcos Villagra

5

Cette réponse est destinée à compléter la réponse de Scott Aaronson (avec laquelle je suis principalement d'accord).

D'un point de vue technique, il est frappant de constater que l'article de Dershowitz / Falkovich utilise le mot "random" uniquement dans le sens de "mémoire à accès aléatoire". En outre, l'article n'utilise pas le mot "sample" (ni aucun de ses mots). variantes) du tout. L'analyse de Dershowitz / Falkovic se concentre plutôt sur le calcul de fonctions numériques.

Cette limitation est frappante car la grande majorité des ressources de calcul STEM modernes (je me risquerai à dire) ne respectent pas la restriction aux fonctions numériques, mais sont plutôt consacrées à la génération d’échantillons à partir de distributions (par exemple, dynamique moléculaire, flux de fluide turbulent, propagation de fracture). , systèmes de spin bruyants classiques et quantiques, ondes se propageant à travers des supports aléatoires, etc.).

Ainsi, si la "thèse de l'Eglise-Turing élargie" (ECT) doit avoir une pertinence substantielle pour les calculs STEM définis au sens large, peut-être que la restriction exclusive aux fonctions numériques devrait être levée et qu'une déclaration généralisée de l'ECT ​​soit fournie, qui englobe l'échantillonnage calculs (et leur validation et vérification).

Cette version du test ECT généralisée à l’échantillonnage relèverait-elle toujours de la compétence du SDC telle que conçue traditionnellement? La réponse est apparemment "oui", selon la FAQ de TCS Stack Exchange :

Nous vous renvoyons à la description du groupe d’intérêt spécial ACM sur les algorithmes et la théorie du calcul (SIGACT) ... Le TCS couvre un large éventail de sujets, dont le calcul probabiliste ... Le travail dans ce domaine [TCS] se distingue souvent par son accent mis sur les mathématiques technique et rigueur.
Ces considérations suggèrent que, pour être utiles aux calculs STEM pratiques, les analyses de l'ECT ​​devraient inclure des considérations explicites sur la validation et la vérification de l'échantillonnage ... et nous pouvons raisonnablement anticiper que cette extension de l'ECT ​​serait associée à la fois à de beaux théorèmes mathématiques et à stimuler des connaissances physiques.


0

CETT{0,1,+,×}CETT, qui dit que ce prédicat de vraisemblance est satisfait par exactement ces modèles qui ont une traduction polynomiale dans une machine de Turing. En tant qu'axiome, il n'est pas falsifiable dans le sens où notre théorie est en mesure de la contredire, tant que la théorie était cohérente au départ, mais la validité de notre théorie est falsifiable: il est concevable qu'il existe un modèle de calcul raisonnable qui ne soit pas lié à Turing machines par une traduction polynomiale du temps. Permettre que cette découverte hypothétique puisse impliquer un changement de réflexion sur ce qui est raisonnable, voilà comment je vois le côté formel. Rétrospectivement, cela semble trivial, mais je pense que c’est un point important pour distinguer les mathématiques de tout le reste.

CETTBPPPCETTPBPPBPPCETTPCETTPBQPCETTCETTBPPBQPP

Par exemple, supposons que je prétende avoir construit une machine qui factorise les nombres et que son exécution respecte une limite polynomiale particulière. La machine est dans une boîte, vous insérez le numéro inscrit sur une bande de papier et vous imprimez les facteurs. Il ne fait aucun doute que cela fonctionne, car je l'ai utilisé pour remporter les défis RSA, confisquer la crypto-monnaie, factoriser de grands nombres de votre choix, etc. Qu'y a-t-il dans la boîte? S'agit-il d'un nouveau type d'ordinateur incroyable ou d'un ordinateur ordinaire utilisant un nouveau type de logiciel?

CETTCETT

CETTEXPTIMEPCTC=PSPACECETTPPSPACE

PNPCETTPPCTCP=NPCETTCETTNP3SATP

EXPTIMECETTEXPTIMEPCETT

CETTP=BPPCETTPBQP

CETT{}CETT{}

CETT


1020
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.