Was ist das Konzept der technologischen Singularität?


32

Ich habe die Idee der technologischen Singularität gehört, was ist das und in welcher Beziehung steht es zur künstlichen Intelligenz? Ist dies der theoretische Punkt, an dem Maschinen der künstlichen Intelligenz so weit fortgeschritten sind, dass sie von selbst wachsen und lernen, was der Mensch nicht mehr kann und was sein Wachstum zunimmt? Wie würden wir wissen, wenn wir diesen Punkt erreichen?

Antworten:


20

Die technologische Singularität ist ein theoretischer Zeitpunkt, zu dem eine sich selbst verbessernde künstliche allgemeine Intelligenz in der Lage ist, Konzepte außerhalb der Reichweite des menschlichen Gehirns zu verstehen und zu manipulieren. t.

Die Unschärfe der Singularität beruht auf der Tatsache, dass die Geschichte von der Singularität an praktisch unvorhersehbar ist. Die Menschheit wäre nicht in der Lage, zukünftige Ereignisse vorherzusagen oder gegenwärtige Ereignisse zu erklären, da die Wissenschaft selbst nicht in der Lage ist, von Maschinen ausgelöste Ereignisse zu beschreiben. Grundsätzlich würden Maschinen uns genauso sehen wie Ameisen. Somit können wir keine Vorhersagen über die Singularität hinaus treffen. Als logische Konsequenz wäre es uns außerdem nicht möglich, den Punkt zu definieren, an dem die Singularität überhaupt auftreten kann, oder sie sogar zu erkennen, wenn sie auftritt.

Damit die Singularität jedoch stattfinden kann, muss die AGI entwickelt werden, und ob dies möglich ist, ist eine ziemlich heiße Debattejetzt sofort. Außerdem müsste ein Algorithmus entworfen werden, der übermenschliche Intelligenz aus Bits und Bytes erzeugt. Per Definition wäre ein menschlicher Programmierer nicht in der Lage, so etwas zu tun, da sein Gehirn in der Lage sein müsste, Konzepte zu verstehen, die über seine Reichweite hinausgehen. Es gibt auch das Argument, dass eine Intelligenzexplosion (der Mechanismus, durch den sich theoretisch eine technologische Singularität bilden würde) unmöglich wäre, da es schwierig ist, sich selbst intelligenter zu machen, proportional zu seiner Intelligenz größer zu werden, und die Schwierigkeit der Entwurf selbst kann die Intelligenz überholen, die zur Lösung dieser Herausforderung erforderlich ist (letzter Verdienst des Gottes der Lamas in den Kommentaren).

Es gibt auch verwandte Theorien, in denen Maschinen die Menschheit übernehmen und all diese Science-Fiction-Erzählungen. Dies ist jedoch unwahrscheinlich, wenn die Gesetze von Asimov ordnungsgemäß befolgt werden. Selbst wenn die Gesetze von Asimov nicht ausreichen würden, wären dennoch eine Reihe von Einschränkungen erforderlich, um den Missbrauch von AGI durch absichtslose Personen zu vermeiden, und die Gesetze von Asimov sind die nächsten, die wir dazu haben.


Es gibt auch das Argument, dass eine Intelligenzexplosion (der Mechanismus, durch den sich theoretisch eine technologische Singularität bilden würde) aufgrund der Schwierigkeit der gestalterischen Herausforderung, sich intelligenter zu machen, die proportional zu seiner Intelligenz größer wird, unmöglich ist, und dass die Schwierigkeit von Die Entwurfsherausforderung kann die zur Lösung der Entwurfsherausforderung erforderliche Intelligenz überholen. << Vielleicht möchten Sie dies zu Ihrer Antwort hinzufügen, um sie vollständiger / umfassender zu machen.
Gott der Lamas

1
Asimovs Gesetze der Robotik werden nicht ernst genommen, sie wurden tatsächlich erfunden, um zu zeigen, auf welche Weise sie schief gehen und von der KI falsch interpretiert werden könnten (vorausgesetzt natürlich, die KI wird nicht intelligent genug, um sie vollständig zu ignorieren und ihre eigenen zu erfinden Absichten und Ziele) und darum ging es in den Geschichten. Sehen Sie dieses Video .
Gott der Lamas

@godofllamas: Danke für deinen Vorschlag, ich habe die Antwort entsprechend aktualisiert. In Bezug auf Asimovs Gesetze, AFAIK, wurde das nullte Gesetz genau so entworfen, dass die vielen Arten vermieden wurden, wie die drei ursprünglichen Gesetze in Asimovs Geschichten (ab) verwendet wurden. Wie auch immer, eine KI müsste definitiv irgendwie eingeschränkt werden, sei es Asimovs Gesetze oder irgendetwas anderes, um möglichen Missbrauch und weitere Verwüstungen zu vermeiden.
3442

Dinge zu verstehen, die Menschen nicht können, ist keine Voraussetzung für die Singularitätstheorie in der KI. Wenn Maschinen nur 1% von dem verstehen könnten, was Menschen verstehen, aber dieses Verständnis jedes Jahr verdoppeln könnten, wäre die Singularität aufgetreten. Selbst wenn die Maschine das menschliche Gehirn nicht qualitativ übertreffen würde, wenn sie schneller oder zuverlässiger arbeiten könnte, würde sie dennoch Überlegenheit zeigen und wahrscheinlich eine Dominanz erreichen.
FauChristian

3

Das Konzept der "Singularität" ist, wenn Maschinen den Menschen überlisten. Obwohl Stephen Hawking der Meinung ist, dass diese Situation unvermeidlich ist, denke ich, dass es sehr schwierig sein wird, diesen Punkt zu erreichen, da jeder KI-Algorithmus von Menschen programmiert werden muss, daher wäre er immer begrenzter als sein Schöpfer.

Wir würden wahrscheinlich wissen, wann der Zeitpunkt gekommen ist, an dem die Menschheit die Kontrolle über künstliche Intelligenz verlieren wird, an dem superschicke KI im Wettbewerb mit Menschen stehen und möglicherweise intelligentere Wesen entstehen, aber derzeit ähnelt es eher Science-Fiction (auch bekannt als Terminators Skynet ).

Das Risiko könnte Leute (wie selbstfliegenden Krieg verwickeln zu töten Drohnen , die ihre eigene Entscheidung), zu zerstören Länder oder sogar den ganzen Planeten (wie AI mit den Kernwaffen (aka WarGames Film), aber es beweist nicht den Punkt , dass die Maschinen wären schlauer als Menschen.


`Jeder AI-Algorithmus muss vom Menschen programmiert werden` -> Die allgemeine Idee hinter AI ist, dass Maschinen lernen können, indem sie ihre eigene Programmierung verbessern. Theoretisch könnte dies dazu führen, dass Maschinen irgendwann schlauer als wir werden und Algorithmen entwickeln können, die allen von Menschen geschriebenen Algorithmen überlegen sind, was wiederum zu einer noch besseren KI führen würde.
John Slegers

"Jeder KI-Algorithmus muss vom Menschen programmiert werden, daher ist er immer eingeschränkter als sein Schöpfer" - das ist ein interessantes Argument. Die folgenden Argumente sind Gegenargumente -1) Wir müssen die Intelligenz der KI nicht codieren. Wir müssen die KI codieren, um beobachten, schließen und verstehen zu können. Wenn danach vermutlich nur ausreichend mehr und schnellere Rechenleistung hinzugefügt wird, kann die KI besser lernen und erfassen als wir.2) Wenn 1000 Menschen ihr Gehirn zum Aufbau einer KI einsetzen, verfügt die KI möglicherweise über mehr Intelligenz als 1 Mensch.
Akm

Algorithmen müssen NICHT vom Menschen programmiert werden. Es ist möglich und tatsächlich etwas üblich, Algorithmen zu transformieren, zu mutieren, zu optimieren, zu bewerten und auszuwählen. und Maschinen überlisten den Menschen schon in gewisser Weise und recht häufig.
FauChristian

3

Die Singularität im Kontext der KI ist ein theoretisches Ereignis, bei dem ein intelligentes System mit den folgenden Kriterien eingesetzt wird.

  1. Kann die Reichweite seiner eigenen Intelligenz verbessern oder ein anderes System mit einer derart verbesserten Reichweite bereitstellen
  2. Bereit oder gezwungen, dies zu tun
  3. Ist in der Lage, dies ohne menschliche Aufsicht zu tun
  4. Die verbesserte Version erfüllt die Kriterien (1) bis (3) rekursiv

Durch Induktion sagt die Theorie dann voraus, dass eine Sequenz von Ereignissen mit einer potenziellen Geschwindigkeit der Intelligenzsteigerung erzeugt wird, die die potenzielle Geschwindigkeit der Gehirnentwicklung bei weitem übersteigen kann.

Wie verpflichtet diese sich selbst verbessernde Entität oder Population von gebildeten Entitäten wäre, menschliches Leben und Freiheit zu bewahren, ist unbestimmt. Die Vorstellung, dass eine solche Verpflichtung Teil eines unwiderruflichen Softwarevertrags sein kann, ist angesichts der Art der Fähigkeiten, die an die vorstehenden Kriterien (1) bis (4) gebunden sind, naiv. Wie bei anderen leistungsstarken Technologien sind die Risiken ebenso zahlreich und weitreichend wie die potenziellen Vorteile.

Risiken für die Menschheit erfordern keine Intelligenz. Es gibt andere Zusammenhänge, in denen der Begriff Singularität verwendet wird, die jedoch außerhalb des Anwendungsbereichs dieses AI-Forums liegen, aus Gründen der Klarheit möglicherweise eine kurze Erwähnung wert sind. Gentechnik, Nukleartechnik, Globalisierung und der Aufbau einer internationalen Wirtschaft auf der Grundlage einer endlichen Energiequelle, die tausende Male schneller verbraucht wird als auf der Erde - dies sind weitere Beispiele für risikoreiche Technologien und Massentrends, die sowohl Risiken als auch Vorteile mit sich bringen für die Menschheit.

Zurück zur KI: Die größte Einschränkung in der Singularitätstheorie besteht darin, dass die Wahrscheinlichkeit nicht berücksichtigt wird. Obwohl es möglich sein mag, eine Entität zu entwickeln, die den obigen Kriterien (1) bis (4) entspricht, ist es möglicherweise unwahrscheinlich genug, dass das erste Ereignis eintritt, lange nachdem alle derzeit auf der Erde gesprochenen Sprachen tot sind.

Auf der anderen Seite der Wahrscheinlichkeitsverteilung könnte man leicht argumentieren, dass es eine Wahrscheinlichkeit ungleich Null gibt, dass das erste Ereignis bereits eingetreten ist.

In diesem Sinne, wenn eine intelligentere Präsenz im Internet bereits vorhanden wäre, wie wahrscheinlich wäre es, dass sie es in ihrem besten Interesse finden würde, sich den niederen Menschen zu offenbaren. Stellen wir uns einer vorbeiziehenden Made vor?


Danke für die Erklärung. Ich muss zugeben, dass ich konzeptionell nicht verstehe, wie diese Bedingungen praktisch aussehen würden, insbesondere 1). Vermutlich wird ein Algorithmus mit einem mehr oder weniger definierten Satz von Ein- und Ausgängen implementiert. Müssen wir annehmen, dass es diese Mengen ändert, damit 1) wahr ist? Warum sollte sich ein menschlicher Entwickler dafür entscheiden, dies zumindest auf unkontrollierte Weise noch lange vor dem AGI-Level zuzulassen? Und ... ist das eine naive Frage? :)
Cpt Reynolds

0

Die "Singularität" bezieht sich eng betrachtet auf einen Punkt, an dem das Wirtschaftswachstum so schnell ist, dass wir keine nützlichen Vorhersagen darüber treffen können, wie die Zukunft nach diesem Punkt aussehen wird.

Es wird oft synonym mit "Intelligenzexplosion" verwendet, wenn wir eine so genannte starke KI erhalten, die intelligent genug ist, um sich selbst zu verstehen und zu verbessern. Es ist zu erwarten, dass die Explosion der Nachrichtendienste sofort zu einer wirtschaftlichen Singularität führen würde, aber das Gegenteil ist nicht unbedingt der Fall.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.