Könnte es existenzielle Bedrohungen für die Menschheit aufgrund von KI geben?


9

Wir recherchieren und verbringen Stunden damit, herauszufinden, wie wir echte KI-Software (intelligente Agenten) dazu bringen können, besser zu funktionieren. Wir versuchen auch, einige Anwendungen, z. B. in den Bereichen Wirtschaft, Gesundheit und Bildung, mithilfe der KI-Technologie zu implementieren.

Dennoch haben die meisten von uns bisher die "dunkle" Seite der künstlichen Intelligenz ignoriert. Zum Beispiel könnte eine "unethische" Person Tausende billiger Drohnen kaufen, sie mit Waffen bewaffnen und sie auf die Öffentlichkeit schießen lassen. Dies wäre eine "unethische" Anwendung der KI.

Könnte es (in Zukunft) existenzielle Bedrohungen für die Menschheit aufgrund von KI geben?


Jede Technologie kann eine existenzielle Bedrohung für die Menschheit darstellen.
Ankur

Antworten:


2

Ich würde Intelligenz als eine Fähigkeit definieren, die Zukunft vorherzusagen. Wenn jemand intelligent ist, kann er einige Aspekte der Zukunft vorhersagen und anhand seiner Vorhersagen entscheiden, was zu tun ist. Wenn sich also "intelligente" Personen dazu entschließen, andere Personen zu verletzen, kann dies sehr effektiv sein (zum Beispiel Hitler und seine Mitarbeiter).

Künstliche Intelligenz kann äußerst effektiv sein, um einige Aspekte einer ungewissen Zukunft vorherzusagen. Und diese IMHO führt zu zwei negativen Szenarien:

  1. Jemand programmiert es, um Menschen zu verletzen. Entweder aus Versehen oder absichtlich.
  2. Künstliche Intelligenz soll etwas Sicheres tun, aber irgendwann, um effektiver zu sein, wird sie sich selbst neu gestalten und möglicherweise Hindernisse aus dem Weg räumen. Wenn Menschen zu Hindernissen werden, werden sie sehr schnell und auf sehr effektive Weise entfernt.

Natürlich gibt es auch positive Szenarien, aber Sie fragen nicht danach.

Ich empfehle, diesen coolen Beitrag über künstliche Superintelligenz und mögliche Ergebnisse ihrer Erstellung zu lesen: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html


Vielen Dank für Ihre Antwort. Sehr interessiert an diesem zweiten Punkt. Die positive Seite, es gibt einen Treffer im ersten Absatz, hoffe, Sie können sehen.
Quintumnia

4

Es besteht kein Zweifel, dass KI das Potenzial hat, eine existenzielle Bedrohung für die Menschheit darzustellen.

Die größte Bedrohung für die Menschheit liegt in der superintelligenten KI.

Eine künstliche Intelligenz, die die menschliche Intelligenz übertrifft, kann ihre eigene Intelligenz exponentiell steigern, was zu einem KI-System führt, das für den Menschen völlig unaufhaltsam ist.

Wenn das System der künstlichen Intelligenz zu diesem Zeitpunkt entscheidet, dass die Menschheit nicht mehr nützlich ist, könnte es uns vom Erdboden abwischen.

Wie Eliezer Yudkowsky es in der Künstlichen Intelligenz als positiven und negativen Faktor für das globale Risiko ausdrückt ,

"Die KI hasst dich nicht und liebt dich auch nicht, aber du bist aus Atomen gemacht, die sie für etwas anderes verwenden kann."

Eine andere Bedrohung liegt in der Anweisung einer hochintelligenten KI

Hier ist es nützlich, das Gedankenexperiment zum Maximieren von Büroklammern zu betrachten.

Eine hochintelligente KI, die angewiesen ist, die Produktion von Büroklammern zu maximieren, kann die folgenden Schritte ausführen, um ihr Ziel zu erreichen.

1) Erreichen Sie eine Intelligenzexplosion, um sich selbst superintelligent zu machen (dies erhöht die Effizienz der Büroklammeroptimierung).

2) Wischen Sie die Menschheit aus, damit sie nicht deaktiviert werden kann (dies würde die Produktion minimieren und ineffizient sein).

3) Verwenden Sie die Ressourcen der Erde (einschließlich des Planeten selbst), um selbstreplizierende Roboter zu bauen, auf denen sich die KI befindet

4) Exponentiell über das Universum verteilt, erntet Planeten und Sterne gleichermaßen und verwandelt sie in Materialien für den Bau von Büroklammerfabriken

Es ist klar, dass dies nicht das ist, was die Büroklammerproduktion des Menschen wollte, aber es ist der beste Weg, die Anweisungen der KI zu erfüllen.

Dies zeigt, wie superintelligente und hochintelligente KI-Systeme das größte existenzielle Risiko darstellen können, dem die Menschheit jemals ausgesetzt sein könnte.

Murray Shanahan schlug in The Technological Singularity sogar vor, dass KI die Lösung für das Fermi-Paradoxon sein könnte: Der Grund, warum wir kein intelligentes Leben im Universum sehen, könnte sein, dass eine Zivilisation, sobald sie weit genug fortgeschritten ist, eine KI entwickelt, die letztendlich zerstört es. Dies ist als Idee eines kosmischen Filters bekannt .

Zusammenfassend lässt sich sagen, dass die Intelligenz, die KI so nützlich macht, sie auch äußerst gefährlich macht.

Einflussreiche Persönlichkeiten wie Elon Musk und Stephen Hawking haben Bedenken geäußert, dass superintelligente KI die größte Bedrohung darstellt, der wir uns jemals stellen müssen.

Hoffe das beantwortet deine Frage :)

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.