Vielleicht wurden an dieser Stelle alle wichtigen / bevorzugten Algorithmen erwähnt, die für dieses Publikum von Interesse sind. Der Vollständigkeit halber verdienen jedoch noch einige weitere Erwähnungen. & Eine Analyse dessen, was als signifikanter Algorithmus angesehen wird, ist hier relevant.
in CS & IT-Bereichen scheint es ein Phänomen zu geben, das vor langer Zeit in der KI bemerkt wurde und das "Bewegen der Torpfosten" heißt . Dies ist ein psychologisches Phänomen, bei dem das Feld relativ schnell voranschreitet, die Menschen sich jedoch mental schnell an das "neue Normal" anpassen und reale oder sogar bahnbrechende Fortschritte im Nachhinein als banal oder unauffällig betrachten, nachdem sie erreicht, dh heruntergespielt oder minimiert wurden. Dies wird in dieser Frage in hohem Maße in der Art und Weise erfasst, wie Algorithmen von F & E in "Bereitstellung" übergehen. Zitiert den Autor der Frage in späteren Kommentaren:
Tatsächlich implementiert ein vernachlässigbarer Teil des gesamten Codes, der geschrieben wird, alles, was aus algorithmischer Sicht interessant ist.
Dies ist jedoch problematisch und im Grunde genommen eine TCS-zentrierte Neudefinition des Wortes "Algorithmus". vermutlich sind die interessanten Algorithmen weiterentwickelt. Bedeutet das, dass ein Problem, wenn es auf einen fortgeschrittenen Algorithmus reduziert wird, nicht mehr "interessant" ist? und "fortgeschritten" ist eindeutig ein sich bewegendes Ziel. Es gibt also eine Möglichkeit, "Algorithmen" eng oder breit zu definieren . es scheint, dass sich die TCS-Definition im Kontext ändert, aber auch in TCS gibt es einen Trend zur breiten Definition, z. B. in der sogenannten "algorithmischen Linse" .
manchmal werden die allgegenwärtigsten Algorithmen auch am meisten übersehen! Das Internet und das WWW sind eine große Umgebung / Nahe-Ökologie für Algorithmen. noch relativ jung, erst etwa zwei Jahrzehnte alt (erfunden ~ 1991), ist es in kurzer Zeit massiv und exponentiell gewachsen. Das Wachstum der WWW-Site hat wahrscheinlich sogar das berühmte exponentielle Moores-Gesetz übertroffen.
Das Internet / WWW wird von vielen ausgefeilten Algorithmen unterstützt. Das Internet verfügt über komplexe Routing-Algorithmen, die in Router integriert sind (die wiederum Unternehmen im Wert von mehreren Milliarden US-Dollar wie Cisco mit Strom versorgen). Einige fortgeschrittene Theorien sind dort anwendbar, z . B. in Routing-Algorithmen . Diese Algorithmen waren vor Jahrzehnten Gegenstand aufkommender, fortschrittlicher und innovativer Forschungen. Sie sind jedoch inzwischen so fein abgestimmt und gut verstanden, dass sie etwas unsichtbar sind.
Wir sollten nicht so schnell vergessen, dass führende Forscher vor Jahrzehnten nicht einmal sicher waren, ob die Internetwelt funktioniert oder möglich war (wie in der frühen Paketvermittlungsforschung zu sehen, ein radikal neues Entwurfsmuster zu der Zeit, das von der vorherigen Schaltung abweicht) Noch vor ein paar Jahren gab es Befürchtungen, dass es irgendwann nicht mehr skalieren und aufgrund der überwältigenden Volumenspitzen versagen könnte.
Es verwendet auch eine ausgeklügelte Fehlererkennung / -korrektur . Das Internet ist wahrscheinlich das größte, fehlertoleranteste System, das jemals von Menschen gebaut wurde und wächst weiter.
Als nächstes gibt es einen guten Grund dafür, die Algorithmen, die das WWW antreiben, weiterzuentwickeln. HTTP- und Webserver sind stark optimiert und verwenden erweiterte Sicherheits- / Verschlüsselungsprotokolle (HTTPS). Die Rendering-Logik einer Webseite wurde in HTML5 und CSS3 zusammen mit der Programmiersprache Javascript extrem erweitert .
Das relativ neue CSS hat verschiedene Prinzipien, die der OOP-Programmierung ähneln, wie Wiederverwendbarkeit und Vererbung. Apropos Schriftsatz: TeX ist ein wichtiges, intern komplexes wissenschaftliches Schriftsatzsystem (nicht anders als eine Programmiersprache), das von Knuth erfunden wurde und jetzt auf Webseiten gerendert werden kann (und möglicherweise in Hunderttausenden von wissenschaftlichen Artikeln oder mehr verwendet wird).
Ein weiterer relativ neuer Bereich von Algorithmen, die auf dem Internet aufbauen und noch auf kollektiver Intelligenz basieren . Die Stackexchange-Software selbst ist ein Beispiel für ein ausgeklügeltes kollektives Nachrichtensystem. Das soziale Netzwerk zeigt auch die Schlüsselmerkmale der kollektiven Intelligenz und es werden kontinuierlich Funktionen hinzugefügt, um diese Intelligenz zu erhöhen (zum Beispiel sind Facebook "Likes" nur ein paar Jahre alt). Das Gebiet der Bewertungssysteme basiert auf kollaborativen Filteralgorithmen und entwickelt sich immer noch basierend auf neuen Forschungen und Anwendungen.
Kurz gesagt, alle revolutionären Erfolge, die die tägliche menschliche Erfahrung verwandeln, gehen weit über bloße "Feldziele" hinaus. Wie der Titel der Frage besagt, sind alle Kernalgorithmen implementiert . Jetzt so allgegenwärtig und unsichtbar, dass es so etwas wie der IT-Ausdruck "Teil des Sanitärs" ist.