Ich habe versucht, einen Miller-Rabin-Primalitätstest durchzuführen , und war verwirrt, warum es für mittelgroße Zahlen (~ 7 Stellen) so lange (> 20 Sekunden) dauerte. Ich fand schließlich die folgende Codezeile als Ursache des Problems:
x = a**d % n
(wo a
, d
und n
sind alle ähnlich, aber ungleich, midsize Zahlen, **
ist der Exponential - Operator, und %
ist der Modulo - Operator)
Ich habe dann versucht, es durch Folgendes zu ersetzen:
x = pow(a, d, n)
und im Vergleich dazu ist es fast augenblicklich.
Für den Kontext ist hier die ursprüngliche Funktion:
from random import randint
def primalityTest(n, k):
if n < 2:
return False
if n % 2 == 0:
return False
s = 0
d = n - 1
while d % 2 == 0:
s += 1
d >>= 1
for i in range(k):
rand = randint(2, n - 2)
x = rand**d % n # offending line
if x == 1 or x == n - 1:
continue
for r in range(s):
toReturn = True
x = pow(x, 2, n)
if x == 1:
return False
if x == n - 1:
toReturn = False
break
if toReturn:
return False
return True
print(primalityTest(2700643,1))
Ein Beispiel für eine zeitgesteuerte Berechnung:
from timeit import timeit
a = 2505626
d = 1520321
n = 2700643
def testA():
print(a**d % n)
def testB():
print(pow(a, d, n))
print("time: %(time)fs" % {"time":timeit("testA()", setup="from __main__ import testA", number=1)})
print("time: %(time)fs" % {"time":timeit("testB()", setup="from __main__ import testB", number=1)})
Ausgabe (mit PyPy 1.9.0 ausführen):
2642565
time: 23.785543s
2642565
time: 0.000030s
Ausgabe (mit Python 3.3.0 ausgeführt, 2.7.2 liefert sehr ähnliche Zeiten):
2642565
time: 14.426975s
2642565
time: 0.000021s
Und eine verwandte Frage: Warum ist diese Berechnung mit Python 2 oder 3 fast doppelt so schnell wie mit PyPy, wenn PyPy normalerweise viel schneller ist ?
>>> print pow.__doc__ pow(x, y[, z]) -> number With two arguments, equivalent to x**y. With three arguments, equivalent to (x**y) % z, but may be more efficient (e.g. for longs).