Die Singularität im Kontext der KI ist ein theoretisches Ereignis, bei dem ein intelligentes System mit den folgenden Kriterien eingesetzt wird.
- Kann die Reichweite seiner eigenen Intelligenz verbessern oder ein anderes System mit einer derart verbesserten Reichweite bereitstellen
- Bereit oder gezwungen, dies zu tun
- Ist in der Lage, dies ohne menschliche Aufsicht zu tun
- Die verbesserte Version erfüllt die Kriterien (1) bis (3) rekursiv
Durch Induktion sagt die Theorie dann voraus, dass eine Sequenz von Ereignissen mit einer potenziellen Geschwindigkeit der Intelligenzsteigerung erzeugt wird, die die potenzielle Geschwindigkeit der Gehirnentwicklung bei weitem übersteigen kann.
Wie verpflichtet diese sich selbst verbessernde Entität oder Population von gebildeten Entitäten wäre, menschliches Leben und Freiheit zu bewahren, ist unbestimmt. Die Vorstellung, dass eine solche Verpflichtung Teil eines unwiderruflichen Softwarevertrags sein kann, ist angesichts der Art der Fähigkeiten, die an die vorstehenden Kriterien (1) bis (4) gebunden sind, naiv. Wie bei anderen leistungsstarken Technologien sind die Risiken ebenso zahlreich und weitreichend wie die potenziellen Vorteile.
Risiken für die Menschheit erfordern keine Intelligenz. Es gibt andere Zusammenhänge, in denen der Begriff Singularität verwendet wird, die jedoch außerhalb des Anwendungsbereichs dieses AI-Forums liegen, aus Gründen der Klarheit möglicherweise eine kurze Erwähnung wert sind. Gentechnik, Nukleartechnik, Globalisierung und der Aufbau einer internationalen Wirtschaft auf der Grundlage einer endlichen Energiequelle, die tausende Male schneller verbraucht wird als auf der Erde - dies sind weitere Beispiele für risikoreiche Technologien und Massentrends, die sowohl Risiken als auch Vorteile mit sich bringen für die Menschheit.
Zurück zur KI: Die größte Einschränkung in der Singularitätstheorie besteht darin, dass die Wahrscheinlichkeit nicht berücksichtigt wird. Obwohl es möglich sein mag, eine Entität zu entwickeln, die den obigen Kriterien (1) bis (4) entspricht, ist es möglicherweise unwahrscheinlich genug, dass das erste Ereignis eintritt, lange nachdem alle derzeit auf der Erde gesprochenen Sprachen tot sind.
Auf der anderen Seite der Wahrscheinlichkeitsverteilung könnte man leicht argumentieren, dass es eine Wahrscheinlichkeit ungleich Null gibt, dass das erste Ereignis bereits eingetreten ist.
In diesem Sinne, wenn eine intelligentere Präsenz im Internet bereits vorhanden wäre, wie wahrscheinlich wäre es, dass sie es in ihrem besten Interesse finden würde, sich den niederen Menschen zu offenbaren. Stellen wir uns einer vorbeiziehenden Made vor?