Quels entiers ont été pris en compte avec l'algorithme de Shor?


19

On s'attend à ce que l'algorithme de Shor nous permette de factoriser des entiers beaucoup plus grands que ce qui pourrait être faisablement possible sur les ordinateurs classiques modernes.

À l'heure actuelle, seuls les entiers plus petits ont été pris en compte. Par exemple, cet article traite de la factorisation de 15=5×3 .

Quel est en ce sens l'état de l'art de la recherche? Y a-t-il un article récent dans lequel il est dit que de plus grands nombres ont été factorisés?


Réponses:


13

La factorisation principale de 21 (7x3) semble être la plus importante réalisée à ce jour avec l'algorithme de Shor; cela a été fait en 2012 comme détaillé dans cet article . Il convient toutefois de noter que des nombres beaucoup plus importants, tels que 56 153 en 2014, ont été pris en compte à l'aide d'un algorithme de minimisation, comme détaillé ici . Pour une référence pratique, voir le tableau 5 de ce document :

Table 5: Quantum factorization recordsNumber# of factors# of qubitsneededAlgorithmYearimplementedImplementedwithout priorknowledge ofsolution1528Shor2001 [2]χ28Shor2007 [3]χ28Shor2007 [3]χ28Shor2009 [5]χ28Shor2012 [6]χ21210Shor2012 [7]χ14324minimization2012 [1]5615324minimization2012 [1]29131126minimizationnot yet17533minimizationnot yet.

@SqueamishOssifrage: Où est-il dit que l'algorithme de minimisation est "limité aux nombres dont les facteurs ont des relations connues qui rendent l'espace de recherche beaucoup plus petit, comme différer dans seulement quelques positions de bits ou différer dans toutes sauf quelques positions"?
user1271772

@ user1271772 Si je comprends bien, la technique repose sur la réduction du problème pour ne nécessiter qu'un nombre traitable de qubits en éliminant les variables par des relations connues entre les bits des facteurs. Bien que le nombre de qubits du facteur puisse évoluer avec seulement O ( log 2 N ) , aucun des articles que j'ai lus ne semblait tenter d'estimer la croissance du temps de résolution en fonction du nombre de qubits ou du log N . NO(log2N)logN
Squeamish Ossifrage

@SqueamishOssifrage: "en éliminant les variables par des relations connues entre les bits des facteurs" Seriez-vous d'accord pour dire que l'Eq. 1 de arxiv.org/pdf/1411.6758.pdf implique que z12 = 0, sans aucune relation "connue" entre les bits? Seriez-vous d'accord que vous pouvez déduire que z12 = 0 pour arbitraire p1, p2, q1, q2? Next: Le nombre de variables (qubits) dans la méthode de la table est non log 2 N . Le problème peut être résolu sur un recuiteur avec des qubits log ( N ) si des interactions arbitraires à 4 qubits sont autorisées. Si seulement les interactions 2 qubits sont autorisés, vous devez ouvrir une session 2 N .log(N)log2Nlog(N)log2N
user1271772

@SqueamishOssifrage: "aucun des articles que j'ai lus ne semblait tenter d'estimer la croissance du temps de résolution en fonction du nombre de qubits". Celui-ci a fait une tentative: journals.aps.org/prl/abstract/10.1103/PhysRevLett.101.220405 Mais «le temps de la solution» n'est pas ce qui est important, c'est l'effort requis. Le tamisage GNF est facile mais l'étape de la matrice est horriblement lourde. L'exécution de l'algorithme de Shor d'une manière raisonnablement optimale est lourde. L'algorithme de minimisation est simple.
user1271772

@SqueamishOssifrage: Enfin: "Notez que l'algorithme de minimisation est limité aux nombres dont les facteurs ont des relations connues" .. aucune partie de l'algorithme n'est limitée aux relations "connues". L'algorithme ne suppose rien sur les facteurs. Pas de relations. Les bits sont toutes des variables inconnues qui sont déterminées par minimisation. La minimisation peut être effectuée avec moins de qubits pour certains nombres que pour d'autres. Il en va de même pour l'algorithme de Shor. Il en va de même pour GNFS. En fait, si le nombre que vous souhaitez factoriser est pair, il est plutôt facile de le factoriser.
user1271772

5

21=7×3a

Pour l'algorithme de recuit : l' état de la technique est 376289 . Mais nous ne savons pas comment cela évoluera. Une limite supérieure très grossière au nombre de qubits nécessaires pour factoriser RSA-230 est de 5,5 milliards de qubits (mais cela peut être considérablement réduit par de meilleurs compilateurs), tandis que l'algorithme de Shor peut le faire avec 381 qubits .


Vous remarquerez que dans le tableau de ma réponse, il y a une colonne pour «implémenté sans connaissance préalable de la solution», il y a un «x» pour toutes les implémentations d'algorithmes de shor, ce qui m'amène à croire que quelque chose de similaire est vrai pour l'affacturage 15.
bruyère

4

La taille du nombre factorisé n'est pas une bonne mesure de la complexité du problème de factorisation, et en conséquence de la puissance d'un algorithme quantique. La mesure pertinente devrait plutôt être la périodicité de la fonction résultante qui apparaît dans l'algorithme.

Ceci est discuté dans J. Smolin, G. Smith, A. Vargo: Pretending to factor large numbers on a quantum computer , Nature 499, 163-165 (2013) . En particulier, les auteurs donnent également un exemple d'un nombre avec 20000 chiffres binaires qui peut être factorisé avec un ordinateur quantique à deux qubits, avec exactement la même implémentation qui avait été utilisée précédemment pour factoriser d'autres nombres.

Il convient de noter que les «simplifications manuelles» que les auteurs effectuent pour arriver à cet algorithme quantique est quelque chose qui a également été fait, par exemple, pour la factorisation de l'expérience originale 15.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.