La partie quantique de l'algorithme de Shor est, essentiellement, une seule exponentiation modulaire effectuée sous superposition suivie d'une transformée de Fourier puis d'une mesure. L'exponentiation modulaire est de loin la partie la plus chère.
Supposons que chaque [...] opération logique élémentaire de factorisation mathématique soit également coûteuse en temps en factorisation classique et en factorisation quantique
Si nous supposons que l'exponentiation modulaire prend exactement autant de temps sur un ordinateur quantique que sur un ordinateur classique, alors la transition où le calcul quantique s'est amélioré se produira à un nombre très faible. Le calcul d'exponentiations modulaires est très rapide, classiquement, car vous pouvez utiliser la quadrature répétée. Je voudrais énormément estimer que le croisement se produira avant même que vous n'atteigniez même des nombres de 30 bits (nombres supérieurs à un milliard).
Mais les ordinateurs quantiques ne feront pas les mathématiques presque aussi vite que les ordinateurs classiques . Par exemple, sur mon ordinateur portable, je peux faire une exponentiation modulaire de 1000 bits en python en une fraction de seconde. Mais sur les ordinateurs quantiques prévisibles, cela prendrait des heures ou des jours. Le problème est la différence énorme ( massive ) dans le coût d'une porte ET.
| T⟩
Supposons donc que nous obtenions un million d'états T par seconde, et nous voulons convertir cela en un taux d'additions 64 bits à comparer avec la machine classique. Un ajout 64 bits nécessite 64 portes ET, chacune nécessitant 4 portes T. 1 million divisé par 4 divisé par 64 donne ... environ 4KHz. Par contraste, une machine classique fera facilement un milliard d'ajouts par seconde. Les additionneurs quantiques sont un million de fois plus lents que les additionneurs classiques (encore une fois, une estimation extravagante et gardez à l'esprit que ce nombre devrait s'améliorer avec le temps).
Un autre facteur à considérer est la différence des coûts des ordinateurs quantiques et classiques. Si vous avez cent millions de dollars et que vous choisissez entre un ordinateur quantique et mille ordinateurs classiques, ce facteur de 1000 doit être pris en compte. En ce sens, on pourrait dire que les additionneurs quantiques sont un milliard de fois moins efficaces que les additionneurs classiques (en FLOPS / $).
Une pénalité constante d' un milliard de dollars est normalement une rupture immédiate. Et pour les algorithmes quantiques avec un simple avantage quadratique (comme Grover), je soutiens qu'il s'agit en fait d'un facteur de rupture. Mais l'algorithme de Shor s'améliore de façon exponentielle par rapport à la stratégie classique lorsque vous augmentez le nombre de bits du nombre à factoriser. Combien de morceaux avant de ronger cette constante "maigre" 10 ^ 9 avec notre croissance exponentielle en avantage?
Considérez que le RSA-640 a été pris en compte en 2005 en utilisant environ 33 années CPU. Un ordinateur quantique devrait être capable de faire ce nombre en moins d'une journée. Si vous avez un millier d'ordinateurs classiques travaillant sur le problème, ils finiraient dans environ deux semaines. Il semble donc que le quantum gagne par 640 bits, mais seulement par un ordre de grandeur ou trois. Alors peut-être que la coupure se produirait quelque part autour de 500 bits?
Quoi qu'il en soit, je sais que ce n'est pas une réponse dure et rapide. Mais j'espère que j'ai donné une idée des quantités auxquelles je penserais en comparant le classique et le quantique. Personne ne connaît vraiment les facteurs constants impliqués, donc je serais surpris si quelqu'un pouvait vous donner une estimation correcte mieux que "quelque part dans les centaines de bits".