Bei Fragen zur Geschichte gibt es normalerweise subtile Nuancen, und es ist nicht einfach, ein bestimmtes Papier zu bestimmen, das ein bestimmtes Konzept eingeführt hat, da es sich in der Regel über viele Mitwirkende erstreckt und manchmal selbstständig wiederentdeckt wird, wenn verdeckte frühe Referenzen nicht unbedingt verbreitet werden (grundlegende Ideen sind wie diese). . Aber die Geschichte geht im Grunde in etwa so: Die Landau-Notation ist ein alter mathematischer Formalismus (1894 / Bachman) [1], der um die frühen 1970er Jahre als "Schlüsselbegriff" in CS eingeführt wurde. Mitte der 1970er Jahre wurde dies in gewisser Weise akzeptiert, wie in Ihrer Knuth-Referenz, und Knuth selbst war an der Verbreitung dieses Konzepts beteiligt.
Interessanterweise war sein Import in CS wahrscheinlich eng mit den zu Beginn der 1970er Jahre aufgedeckten Unterschieden zwischen P vs NP vs Exptime verbunden, die auf diesem Gebiet einen großen Einfluss hatten. es war Cobham / Edmonds, der Anfang der 1970er Jahre damit begann, die Klasse P zu definieren. [3] Es gab frühe Beweise über Exptime und Expspace von Stockmeyer / Meyer. Das Cook-Levin-Theorem [4] (1971) zeigte die Kernrelevanz von P gegen NP-Zeit, die unmittelbar von Karp [5] (1972) unterstützt wurde.
Ein früher Mathematiker, der in der Zahlentheorie, aber auch am Rande der Informatik arbeitete, war Pocklington. wie in [3] heißt es:
In einem Aufsatz von 1910 analysierte HC Pocklington [11] [12] zwei Algorithmen zum Lösen quadratischer Kongruenzen und stellte fest, dass eine Zeit "proportional zu einer Potenz des Logarithmus des Moduls" und eine andere Zeit "dauerte" proportional "zum Modul selbst oder seiner Quadratwurzel", wodurch explizit zwischen einem Algorithmus, der in Polynomialzeit lief, und einem Algorithmus, der nicht lief, unterschieden wird.
Ein weiterer Pionier bei der Analyse der Komplexität maschinenbasierter Algorithmen für die Zahlentheorie, das heißt das Faktorisieren, war Derrick Lehmer, Professor für Mathematik an der University of California in Berkeley, der bereits in den 1920er Jahren Factoring-Algorithmen (siebbasierte Implementierungen) gebaut und analysiert hat und es ist möglich, dass er so etwas wie rechnerische Komplexität in informeller Weise beschrieben hat. [6]
Ein weiterer Fall ist ein "verlorener" Brief von Godel an von Neumann aus dem Jahr 1956, in dem es um Komplexitätsmessungen der Schritte f (n) einer Maschine geht, um Beweise der Größe n zu finden . [7]
[1] Geschichte der Big O-Notation / Wikipedia
[2] Wortprobleme, die exponentielle Zeit erfordern. / Stockmeyer, Meyer (1973)
[3] P Zeitklassenverlauf / Wikipedia
[4] Cook-Levin-Satz / Wikipedia
[5] Karps 21 NP vollständige Probleme / Wikipedia
[6] Lehmer Factoring Machine / Sieb / Wikipedia
[7] Godels verlor Brief / RJLipton