J'essayais de mettre en œuvre un test de primalité de Miller-Rabin et j'étais perplexe sur la raison pour laquelle cela prenait si longtemps (> 20 secondes) pour les nombres de taille moyenne (~ 7 chiffres). J'ai finalement trouvé que la ligne de code suivante était la source du problème:
x = a**d % n
(où a
, d
et n
sont tous similaires, mais inégaux, des nombres de taille moyenne, **
est l'opérateur d'exponentiation et %
est l'opérateur modulo)
J'ai ensuite essayé de le remplacer par ce qui suit:
x = pow(a, d, n)
et c'est par comparaison presque instantané.
Pour le contexte, voici la fonction d'origine:
from random import randint
def primalityTest(n, k):
if n < 2:
return False
if n % 2 == 0:
return False
s = 0
d = n - 1
while d % 2 == 0:
s += 1
d >>= 1
for i in range(k):
rand = randint(2, n - 2)
x = rand**d % n # offending line
if x == 1 or x == n - 1:
continue
for r in range(s):
toReturn = True
x = pow(x, 2, n)
if x == 1:
return False
if x == n - 1:
toReturn = False
break
if toReturn:
return False
return True
print(primalityTest(2700643,1))
Un exemple de calcul chronométré:
from timeit import timeit
a = 2505626
d = 1520321
n = 2700643
def testA():
print(a**d % n)
def testB():
print(pow(a, d, n))
print("time: %(time)fs" % {"time":timeit("testA()", setup="from __main__ import testA", number=1)})
print("time: %(time)fs" % {"time":timeit("testB()", setup="from __main__ import testB", number=1)})
Sortie (exécutée avec PyPy 1.9.0):
2642565
time: 23.785543s
2642565
time: 0.000030s
Sortie (exécutée avec Python 3.3.0, 2.7.2 renvoie des temps très similaires):
2642565
time: 14.426975s
2642565
time: 0.000021s
Et une question connexe, pourquoi ce calcul est-il presque deux fois plus rapide lorsqu'il est exécuté avec Python 2 ou 3 qu'avec PyPy, alors que PyPy est généralement beaucoup plus rapide ?
>>> print pow.__doc__ pow(x, y[, z]) -> number With two arguments, equivalent to x**y. With three arguments, equivalent to (x**y) % z, but may be more efficient (e.g. for longs).