Plutôt que des preuves empiriques, par quels principes formels avons-nous prouvé que l'informatique quantique sera plus rapide que l'informatique traditionnelle / classique?
Plutôt que des preuves empiriques, par quels principes formels avons-nous prouvé que l'informatique quantique sera plus rapide que l'informatique traditionnelle / classique?
Réponses:
C'est une question qui est un peu difficile à décompresser si vous n'êtes pas familier avec la complexité informatique. Comme la plupart des domaines de la complexité informatique, les principaux résultats sont largement admis mais conjecturaux.
Les classes de complexité généralement associées à un calcul classique efficace sont (pour les algorithmes déterministes) et B P P (pour randomisé). La contrepartie de quantum de ces classes est B Q P . Les trois classes sont des sous-ensembles de P S P A C E (une classe très puissante). Cependant, nos méthodes actuelles de preuve ne sont pas assez forts pour montrer définitivement que P n'est pas la même chose que P S P A C E . Ainsi, nous ne savons pas comment séparer formellement P de B Q Psoit - depuis , séparant ces deux catégories est plus dure que la tâche déjà formidable de séparation P de P S P A C E . (Si nous pouvions prouver P ≠ B Q P , nous obtiendrions immédiatement une preuve que P ≠ P S P A C E , prouvant ainsi P ≠ B Q Pdoit être au moins aussi difficile que le problème déjà très difficile de prouver ). Pour cette raison, dans l'état actuel de la technique, il est difficile d'obtenir une preuve mathématique rigoureuse montrant que l'informatique quantique sera plus rapide que l'informatique classique.
Ainsi, nous nous appuyons généralement sur des preuves circonstancielles pour les séparations de classes de complexité. Notre preuve la plus forte et la plus célèbre est l'algorithme de Shor qu'il nous permet de facteur . En revanche, nous ne connaissons aucun algorithme pouvant prendre en compte B P P - et la plupart des gens pensent qu'il n'en existe pas; cela fait partie de la raison pour laquelle nous utilisons RSA pour le chiffrement, par exemple. En gros, cela implique qu'il est possible pour un ordinateur quantique de factoriser efficacement, mais suggère qu'il peut ne pas être possible pour un ordinateur classique de factoriser efficacement. Pour ces raisons, le résultat de Shor a suggéré à beaucoup que B Q P est strictement plus puissant que B P P(et donc aussi plus puissant que ).
Je ne connais aucun argument sérieux selon lequel , à l'exception de ceux qui croient en des effondrements de classes beaucoup plus complexes (qui sont une minorité de la communauté). Les arguments les plus sérieux que j'ai entendus contre l'informatique quantique proviennent de positions plus proches de la physique et soutiennent que B Q P ne saisit pas correctement la nature de l'informatique quantique. Ces arguments disent généralement que les états cohérents macroscopiques sont impossibles à maintenir et à contrôler (par exemple, car il existe un barrage physique fondamental encore inconnu), et donc les opérateurs sur lesquels B Q P s'appuie ne peuvent pas être réalisés (même en principe) dans notre monde .
Si nous commençons à passer à d'autres modèles de calcul, alors un modèle particulièrement facile à utiliser est la complexité de requête quantique (la version classique qui lui correspond est la complexité de l'arbre de décision). Dans ce modèle, pour les fonctions totales, nous pouvons prouver que (pour certains problèmes) les algorithmes quantiques peuvent atteindre une accélération quadratique, bien que nous puissions également montrer que pour les fonctions totales, nous ne pouvons pas faire mieux qu'une accélération à la puissance 6 et croire que le quadratique est le meilleur possible. Pour les fonctions partielles, c'est une histoire totalement différente, et nous pouvons prouver que des accélérations exponentielles sont réalisables. Encore une fois, ces arguments reposent sur la conviction que nous avons une compréhension décente de la mécanique quantique et qu'il n'y a pas de barrière théorique inconnue magique pour empêcher les états quantiques macroscopiques d'être contrôlés.
Pour la complexité de calcul, il n'y a aucune preuve que les ordinateurs quantiques sont meilleurs que les ordinateurs classiques en raison de la difficulté à obtenir des limites inférieures sur la dureté des problèmes. Cependant, il existe des paramètres dans lesquels un ordinateur quantique fait mieux que celui classique. Le plus célèbre de ces exemples se trouve dans le modèle de boîte noire dans lequel vous avez accès via la boîte noire à une fonction et vous voulez trouver l'unique x pour lequel f est évalué à 1. La mesure de la complexité dans ce cas est le nombre d'appels à f. Classiquement, vous ne pouvez pas faire mieux que de deviner au hasard, ce qui prend en moyenne Ω ( 2 n ) de requêtes à f . Cependant, en utilisant l'algorithme de Grover, vous pouvez réaliser la même tâche dans O ( √.
Pour d'autres séparations prouvables, vous pouvez examiner la complexité de la communication où nous savons comment prouver les limites inférieures. Il existe des tâches que deux ordinateurs quantiques communiquant via un canal quantique peuvent accomplir avec moins de communication que deux ordinateurs classiques. Par exemple, le calcul du produit interne de deux chaînes, l'un des problèmes les plus difficiles de la complexité de la communication, s'accélère lors de l'utilisation d'ordinateurs quantiques.
Artem Kaznatcheev fournit un résumé exceptionnel de quelques raisons clés pour lesquelles nous nous attendons à ce que les ordinateurs quantiques soient fondamentalement plus rapides que les ordinateurs classiques, pour certaines tâches.
Si vous souhaitez une lecture supplémentaire, vous pouvez lire les notes de cours de Scott Aaronson sur l'informatique quantique , qui traitent de l'algorithme Shor et d'autres algorithmes qui admettent des algorithmes quantiques efficaces mais ne semblent pas admettre d'algorithme classique efficace.
Il y a un débat sur la question de savoir si les ordinateurs quantiques peuvent être construits dans la pratique: le BQP est-il un modèle précis de réalité, ou y a-t-il quelque chose qui pourrait nous empêcher de construire un ordinateur quantique, soit pour des raisons d'ingénierie, soit en raison d'obstacles physiques fondamentaux? Vous pouvez lire les notes de conférence de Scott Aaronson résumant les arguments soulevés par d'autres et lire également son article de blog avec son point de vue sur ce débat , mais nous n'aurons probablement pas de réponse définitive tant que quelqu'un n'aura pas réellement construit un ordinateur quantique capable d'effectuer des tâches non triviales. (tels que le facteur de grands nombres).
L'édifice de base de l'informatique quantique est la transformée unitaire, c'est l'outil principal pour avoir une accélération dans de nombreux algorithmes dans la littérature. Les algorithmes qui utilisent les unitaires utilisent les propriétés théoriques des nombres / graphes des problèmes actuels - recherche de période, accélérations dans les marches quantiques, etc. Les accélérations dans les problèmes naturels sont encore insaisissables - comme indiqué. Que la factorisation de grands nombres soit la fin en soi pour l'informatique quantique, reste une question ouverte. D'autres questions ouvertes telles que QNC, sa séparation de NC pourraient encore fournir des indices insaisissables sur ce que les ordinateurs quantiques peuvent faire. Mais, si le but de l'ordinateur quantique est de factoriser de grands nombres - cela peut encore être réalisable, en soi dans un avenir, avec des implications effrayantes (bien sûr pour la vie privée)!
Je voulais répondre aux commentaires de Niel de Beaudrap concernant la source des accélérations quantiques, mais je ne peux pas commenter. Je ne sais pas si je peux poster une réponse.
À mon avis, tous les accélérations quantiques sont dues à l'intrication. Le seul algorithme où nous pouvons faire quelque chose de plus rapide que les ordinateurs classiques sans utiliser d'états intriqués est Deutsch-Jozsa pour calculer la parité de deux bits. Si nous discutons d'accélérations asymptotiques, l'intrication est nécessaire, et en fait beaucoup. Si un algorithme quantique a besoin d'une petite quantité d'enchevêtrement, il peut être simulé efficacement de façon classique. Je peux souligner l'article http://arxiv.org/abs/quant-ph/0201143 , qui traite spécifiquement de l'algorithme de factorisation et de la quantité d'enchevêtrement qu'il nécessite.
c'est à peu près la même question centrale qui génère quelque chose comme des centaines de millions, voire des milliards de dollars d'initiatives de recherche en informatique QM à la fois publiques et privées dans le monde entier. la question est attaquée à la fois expérimentalement et théoriquement et les avancées de chaque côté se répercutent de l'autre côté.
la question tente de bien séparer les aspects théoriques et pragmatiques / expérimentaux de cette question, mais un expérimentaliste ou un ingénieur dirait qu'ils sont étroitement couplés, inséparables, et que les progrès historiques jusqu'à présent sur le défi en sont la preuve / preuve.
le point suivant ne va certainement pas gagner de concours de popularité (peut-être en raison du biais bien connu / observé selon lequel les résultats négatifs sont rarement rapportés scientifiquement), mais il convient de noter qu'il existe une opinion minoritaire / contrariante promue par divers crédibles , même des chercheurs d'élite que l'informatique QM peut ou ne se matérialisera jamais physiquement en raison de défis de mise en œuvre insurmontables, et il y a même une justification / analyse théorique pour cela (mais peut-être plus de la physique théorique que du TCS). (et notez que certains peuvent avoir des doutes mais ne sont pas disposés à consigner officiellement le "paradigme dominant".) les principaux arguments sont basés sur le bruit inhérent à la QM, le principe d'incertitude de Heisenberg et le désordre expérimental fondamental des configurations de QM, etc.
il y a maintenant une assez solide 2 décennies de recherche à la fois théorique et expérimentale et la faction minoritaire dirait que les résultats jusqu'à présent ne sont pas encourageants, ternes, ou sont même maintenant à la limite d'une réponse négative définitive.
Dyakonov est l'un des plus fervents partisans de la vision négative (à la limite de l'extrême / cinglant!) mais qui défend néanmoins le cas avec passion sous tous les angles:
Etat de l'art et perspectives de l'informatique quantique / Dyakonov
Perspectives de l'informatique quantique: extrêmement douteuses / Dyakonov
on peut accuser Dyakonov de quasi-polémisme, mais il sert de contrepoint presque symétrique à certains partisans de l'informatique QM qui ont une fervente croyance en la position opposée (qu'il n'est presque absolument pas question de sa viabilité future / éventuelle / inévitable). un autre théoricien majeur plaidant pour les limitations inhérentes au calcul QM (basé sur le bruit) est Kalai. voici un débat prolongé entre lui et Harrow sur le sujet.
il est également naturel de tirer une analogie au moins lâche avec un autre projet de physique massif / complexe qui n'a jusqu'à présent pas atteint son objectif ultime après des décennies de tentatives et de premières prévisions optimistes, celui d' expériences de fusion génératrices d' énergie .