Quand saurons-nous que la suprématie quantique a été atteinte?


22

Le terme «suprématie quantique» - à ma connaissance - signifie que l'on peut créer et exécuter des algorithmes pour résoudre des problèmes sur des ordinateurs quantiques qui ne peuvent pas être résolus en temps réel sur des ordinateurs binaires. Cependant, c'est une définition assez vague - qu'est-ce qui serait considéré comme du "temps réaliste" dans ce contexte? Doit-il s'agir du même algorithme ou simplement du même problème? Ne pas être capable de simuler des ordinateurs quantiques de certaines tailles ne peut certainement pas être la meilleure mesure.

Réponses:


17

Le terme quantum supremacy ne signifie pas nécessairement que l'on peut fonctionner algorithms, en tant que tel, sur un ordinateur quantique qui n'est pas pratique à exécuter sur un ordinateur classique. Cela signifie simplement qu'un ordinateur quantique peut faire quelque chose qu'un ordinateur classique aura du mal à simuler.

Vous pourriez demander (et à juste titre) ce que je pourrais éventuellement dire en parlant de quelque chose fait par un ordinateur quantique qui n'est pas un algorithm. Ce que je veux dire par là, c'est que nous pouvons avoir un ordinateur quantique effectuer un processus qui

  • n'a pas nécessairement un comportement très bien compris - en particulier, nous pouvons prouver très peu de choses sur ce processus;

  • en particulier, ce processus ne «résout» aucun problème d'intérêt pratique - la réponse au calcul ne répond pas nécessairement à une question qui vous intéresse.

Quand je dis que le processus n'a pas nécessairement un comportement bien compris, cela ne signifie pas que nous ne savons pas ce que fait l'ordinateur: nous aurons une bonne description des opérations qu'il fait. Mais nous n'aurons pas nécessairement une compréhension aiguë de l' effet cumulatif sur l'état du système de ces opérations. (La promesse même du calcul quantique a été initialement proposée parce que les systèmes mécaniques quantiques sont difficiles à simuler , ce qui signifie qu'il pourrait être capable de simuler d'autres systèmes qui sont difficiles à simuler.)


Vous pourriez vous demander quel est l'intérêt d'avoir un ordinateur quantique faire quelque chose qui est difficile à simuler si la seule raison est seulement qu'il est difficile à simuler. La raison en est: il démontre une preuve de principe. Supposons que vous puissiez construire des systèmes quantiques avec 35 qubits, avec 40 qubits, avec 45 qubits, 50 qubits, etc. - chacun étant construit selon les mêmes principes d'ingénierie, chacun d'eux pouvant être simulé en pratique, et chacun se comportant comme la simulation prédit(jusqu'à de bonnes tolérances), mais où chaque simulation est beaucoup plus gourmande en ressources que la précédente. Ensuite, une fois que vous avez un système sur 55 ou 60 qubits que vous ne pouvez pas simuler avec le plus grand supercalculateur du monde, vous pouvez affirmer que vous avez une architecture qui construit des ordinateurs quantiques fiables (basés sur les tailles que vous pouvez simuler), et qui peuvent être utilisé pour construire des ordinateurs quantiques suffisamment grands pour qu'aucune technique de simulation connue ne puisse prédire leur comportement (et où peut-être même une telle technique n'est même pas possible).

Cette étape en soi n'est pas nécessairement utilepour n'importe quoi, mais c'est une condition nécessaire pour pouvoir résoudre des problèmes intéressants sur un ordinateur quantique plus rapidement que sur un ordinateur classique. Le fait que vous ne puissiez pas nécessairement résoudre des problèmes «intéressants» à ce stade est l'une des raisons pour lesquelles les gens sont parfois insatisfaits du terme «suprématie». (Il y a d'autres raisons liées aux connotations politiques, qui sont justifiées à mon avis mais hors sujet ici.) Appelez-le "ascendant quantique", si vous préférez - ce qui signifie qu'il marque un point où les technologies quantiques deviennent définitivement significatives dans puissance, bien qu'il ne soit pas encore en danger de remplacer le téléphone portable dans votre poche, les ordinateurs de bureau, ou même nécessairement les supercalculateurs industriels - mais c'est un point d'intérêt dans la courbe de développement de toute technologie de calcul quantique.


Mais l'essentiel est que, oui, la "suprématie quantique" consiste précisément à "ne pas être en mesure de simuler des ordinateurs quantiques de certaines tailles", ou du moins de ne pas pouvoir simuler certains processus spécifiques que vous pouvez leur faire exécuter, et cette référence dépend non seulement de la technologie quantique, mais de la meilleure technologie classique disponible et des meilleures techniques classiques disponibles. C'est une frontière floue qui, si nous prenons les choses au sérieux, nous ne serons convaincus que nous avons passé un an ou deux après les faits. Mais c'est une frontière importante à franchir.


Comme note de bas de page: en ce qui concerne votre question "Doit-il être le même algorithme?", Un ordinateur quantique ne peut obtenir un avantage sur un ordinateur classique qu'en utilisant un algorithme radicalement différent . La raison est simple: les ordinateurs quantiques n'obtiendraient pas un avantage en effectuant des opérations plus rapidement (certainement pas dans leur état actuel de développement, et peut-être jamais), mais en effectuant moins d' opérations, ce qui ne correspond pas à des opérations sensibles qu'un ordinateur conventionnel pourrait être fait pour faire.
Niel de Beaudrap

Donc, juste pour être sûr: avec l'annonce par Google de la puce Bristlecone à 72 qubits et le plus grand nombre de qubits simulés à ma connaissance étant de 56 qubits, nous pourrions atteindre cela dès que Google aura prouvé sa puce?
blalasaadri

2
À condition que les qubits dans la puce Google soient suffisamment stables et les taux d'erreur dans les opérations suffisamment bas, que l'on puisse effectuer suffisamment d'opérations pour faire quelque chose qui est difficile à simuler classiquement avant que la mémoire ne décohérise - alors oui, cela pourrait être le premier événement "ascendant quantique". En principe, il est très logique de parler de l'ascendant d'une architecture donnée, dont le Bristlecone de Google en est un exemple. Mais comme un morceau de trivia historique, il serait intéressant de noter qui était le premier à marquer, et Google pourrait finir par être le premier.
Niel de Beaudrap

7

Le terme de suprématie quantique , introduit par Preskill en 2012 ( 1203.5813 ), peut être défini par la phrase suivante:

Nous espérons donc hâter le début de l'ère de la suprématie quantique, lorsque nous serons en mesure d'effectuer des tâches avec des systèmes quantiques contrôlés allant au-delà de ce qui peut être réalisé avec des ordinateurs numériques ordinaires.

Ou, comme wikipedia le reformule, la suprématie quantique est la capacité potentielle des appareils informatiques quantiques à résoudre des problèmes que les ordinateurs classiques ne peuvent pratiquement pas .

Il convient de noter qu'il ne s'agit pas d' une définition précise au sens mathématique. Ce que vous pouvez dire avec précision, c'est comment la complexité d'un problème donné évolue avec la dimension de l'entrée (par exemple, le nombre de qubits à simuler, si l'on a affaire à un problème de simulation). Ensuite, s'il s'avère que la mécanique quantique permet de résoudre le même problème plus efficacement (et, surtout, vous êtes en mesure de le prouver), alors il y a de la place pour un appareil quantique pour démontrer (ou plutôt, fournir des preuves) la suprématie quantique ( ou avantage quantique , ou comme vous préférez l'appeler, voir par exemple la discussion dans les commentaires ici ).


Donc, à la lumière de ce qui précède, quand peut-on prétendre exactement avoir atteint le régime de la suprématie quantique ? À la fin de la journée, il n'y a pas de nombre magique unique qui vous amène du "régime classiquement simulable" au "régime de suprématie quantique", et il s'agit plus d'une transition continue, dans laquelle on rassemble de plus en plus de preuves vers la déclarations que la mécanique quantique peut faire mieux que la physique classique (et, dans le processus, fournir des preuves contre la thèse de Church-Turing étendu).

D'une part, il existe des régimes qui relèvent manifestement du "régime de suprématie quantique". C'est lorsque vous parvenez à résoudre un problème avec un appareil quantique que vous ne pouvez tout simplement pas résoudre avec un appareil classique. Par exemple, si vous parvenez à factoriser un nombre énorme qui prendrait l'âge de l'univers pour calculer avec n'importe quel appareil classique (et en supposant que quelqu'un a réussi à prouver que l'affacturage est en effet dur classique, ce qui est loin d'être une donnée), alors il semble difficile de réfuter que la mécanique quantique permet en effet de résoudre certains problèmes plus efficacement que les appareils classiques.

Mais ce qui précède n'est pas un bon moyen de penser à la suprématie quantique, principalement parce que l'un des principaux points de la suprématie quantique est une étape intermédiaire avant de pouvoir résoudre des problèmes pratiques avec les ordinateurs quantiques. En effet, dans la quête de la suprématie quantique, on assouplit l'exigence d'essayer de résoudre des problèmes utiles et essaie simplement d'attaquer le principe qu'au moins pour certaines tâches, la mécanique quantique offre effectivement des avantages.

Lorsque vous faites cela et demandez le dispositif le plus simple possible qui peut démontrer la suprématie quantique , les choses commencent à devenir délicates. Vous voulez trouver le seuil au-dessus duquel les appareils quantiques sont meilleurs que les appareils classiques, mais cela revient à comparer deux types d'appareils radicalement différents, exécutant des types d'algorithmes radicalement différents . Il n'y a pas de moyen facile (connu?) De procéder. Par exemple, tenez-vous compte du coût de la construction des deux appareils différents? Et que diriez-vous de comparer un appareil classique à usage général avec un appareil quantique à usage spécial? Est-ce juste? Qu'en est-il de la validationla sortie de l'appareil quantique, est-ce nécessaire? De plus, dans quelle mesure exigez-vous que vos résultats de complexité soient? Une liste raisonnable proposée de critères pour une expérience de suprématie quantique, telle que donnée par Harrow et Montanaro ( nature23458 , paywalled), est1:

  1. Un problème de calcul bien défini.
  2. Un algorithme quantique résolvant le problème qui peut fonctionner sur un matériel à court terme capable de gérer le bruit et les imperfections.
  3. Un certain nombre de ressources informatiques (temps / espace) permises à tout concurrent classique.
  4. Un petit nombre d'hypothèses théoriques de complexité bien justifiées.
  5. une méthode de vérification qui peut distinguer efficacement les performances de l'algorithme quantique de tout concurrent classique utilisant les ressources autorisées.

Pour mieux comprendre le problème, on peut jeter un œil aux discussions autour des affirmations de D-Wave en 2005 d'un "dix8speedup "avec leur appareil (qui ne fonctionne que lors de l'utilisation de comparaisons appropriées). Voir par exemple les discussions sur ce billet de blog de Scott Aaronson et les références qui y sont contenues (et, bien sûr, l'article original de Denchev et al. ( 1512.02206 )).

En ce qui concerne également les seuils exacts séparant le régime «classique» du régime de «suprématie quantique», on peut jeter un œil aux discussions sur le nombre de photons nécessaires pour revendiquer la suprématie quantique dans une expérience d'échantillonnage de bosons. Le nombre signalé était initialement d'environ 20 et 30 ( Aaronson 2010 , Preskill 2012 , Bentivegna et al.2015 , entre autres), puis est brièvement descendu jusqu'à sept ( Latmiral et al.2016 ), puis a augmenté jusqu'à ~ 50 ( Neville et al. 2017 , et vous pouvez consulter la brève discussion de ce résultat ici ).

Il existe de nombreux autres exemples similaires que je n'ai pas mentionnés ici. Par exemple, il y a toute la discussion sur l'avantage quantique via les circuits IQP, ou le nombre de qubits qui sont nécessaires avant que l'on ne puisse pas simuler classiquement un appareil ( Neill et al.2017 , Pednault et al.2017 , et quelques autres discussions sur ces résultats) . Un autre examen intéressant que je n'ai pas inclus ci-dessus est celui de Lund et al. Papier 2017 .

(1) J'utilise ici la reformulation des critères donnée dans Calude et Calude ( 1712.01356 ).

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.