Warum sagt Stephen Hawking "Künstliche Intelligenz wird uns alle töten"? [geschlossen]


10

Dieses Zitat von Stephen Hawking ist seit geraumer Zeit in den Schlagzeilen:

Künstliche Intelligenz könnte die Menschheit auslöschen, wenn sie zu klug wird, da Menschen wie Ameisen sind.

Warum sagt er das? Einfach ausgedrückt für Laien: Was sind die möglichen Bedrohungen durch KI? Wenn wir wissen, dass KI so gefährlich ist, warum fördern wir sie dann immer noch? Warum ist es nicht verboten?

Was sind die nachteiligen Folgen der sogenannten technologischen Singularität ?


1
Vielleicht könnte diese Frage in eine Frage nach der Möglichkeit der technologischen Singularität umformuliert werden?
Rob Murray

1
@ R. Murray Bearbeitet und Ihren Punkt zum Körper hinzugefügt ...
Tatan

2
Es tut mir leid, aber ich stimme ab. Bitte, bitte, bitte stellen Sie beantwortbare Fragen anstelle von spekulativen. Ich meine "Warum sagt Stephen Hawking" Künstliche Intelligenz wird uns alle töten "?". Was erwarten Sie von der richtigen Antwort? Ab der frühen Beta benötigen wir technische Fragen, um Experten anzulocken, und nicht alle, die Grundkenntnisse aus dem Lesen einiger Wikipedia-Seiten haben. Wieder zitiert: "Warum sagt Stephen Hawking" Künstliche Intelligenz wird uns alle töten "?". Ich denke nicht, dass Fachwissen erforderlich ist, um dies zu beantworten. Tut mir leid, wenn ich in meinem kleinen
Geschwätz

Die Frage ist nach der Bearbeitung besser, aber es wäre gut, die Anzahl der Fragen zu reduzieren, die gleichzeitig gestellt werden. Zum Beispiel könnten Sie fragen: "Wie könnte KI die Menschheit auslöschen?" (wie Sie es zu tun scheinen), aber warum es immer noch so intensiv erforscht wird, ist eine andere Frage.
Ben N

2
Ich denke, die Frage im Titel ist keine schlechte Frage. Es hat eine Antwort, weil es fragt, was Stephen Hawking denkt. Die anderen Fragen im Körper unterscheiden sich davon und sollten entfernt werden. Ich stimme jedoch zu, dass dies nicht die Art von Frage ist, die Experten anziehen würde
Harsh

Antworten:


5

Es ist nicht nur Hawking, man hört Variationen von diesem Refrain von vielen Leuten. Und da es sich meistens um sehr kluge, gut ausgebildete und gut informierte Menschen handelt (Elon Musk ist zum Beispiel ein anderer), sollte dies wahrscheinlich nicht ohne weiteres abgetan werden.

Wie auch immer, die Grundidee scheint folgende zu sein: Wenn wir "echte" künstliche Intelligenz schaffen, kann sie sich irgendwann selbst verbessern, was ihre Fähigkeit verbessert, sich selbst zu verbessern, was bedeutet, dass sie ihre Fähigkeit verbessern kann, sich selbst zu verbessern mehr und so weiter ... eine außer Kontrolle geratene Kaskade, die zu "übermenschlicher Intelligenz" führt. Das heißt, was zu etwas führt, das intelligenter ist als wir.

Was passiert also, wenn es auf diesem Planeten eine Entität gibt, die buchstäblich intelligenter ist als wir (Menschen)? Wäre es eine Bedrohung für uns? Nun, es scheint sicherlich vernünftig zu spekulieren, dass es so sein könnte . OTOH, wir haben derzeit keinen besonderen Grund zu der Annahme, dass dies der Fall sein wird.

Es scheint also, dass Hawking, Musk usw. nur auf die vorsichtigere / ängstlichere Seite der Dinge fallen. Da wir nicht wissen, ob eine übermenschliche KI gefährlich ist oder nicht, und angesichts der Tatsache, dass sie nicht aufzuhalten ist, wenn sie bösartig wird (denken Sie daran, sie ist schlauer als wir!), Ist dies eine vernünftige Sache.

Eliezer Yudkowsky hat auch einiges zu diesem Thema geschrieben, einschließlich des berühmten "AI Box" -Experiments. Ich denke, jeder, der sich für dieses Thema interessiert, sollte einige seiner Materialien lesen.

http://www.yudkowsky.net/singularity/aibox/


1
Ich denke, die AI Box ist tatsächlich eine schlechte Einführung in das AI-Risiko. Es zielt auf einen bestimmten kleinen Teil der Erklärung ab: "Wie könnte jemand jemals davon überzeugt werden, eine KI aus der Box zu lassen?". Für jemanden, der der Meinung ist, dass es sich lohnt, KI zu verwenden, hat er bereits entschieden, dass es sich lohnt, sie aus der Box zu lassen. Die Orthogonalitätsthese ist wahrscheinlich der beste Ausgangspunkt, denke ich.
Matthew Graves

Fair genug. Ich bin einfach besser mit Yudkowskys Schriften vertraut. Ich möchte die Bedeutung anderer Arbeiten zu diesem Thema sicherlich nicht mindern.
Gedankenverbrechen

4

Weil er noch nicht wusste, wie weit die aktuelle KI entfernt ist ... Wenn ich in einem Medien-KI-Labor arbeite, bekomme ich diese Frage oft. Aber wirklich ... davon sind wir noch weit entfernt. Die Roboter tun immer noch alles, was wir ihnen detailliert beschreiben. Anstatt den Roboter als intelligent zu betrachten, würde ich beim menschlichen Programmierer nachsehen, wo die Kreativität wirklich stattfindet.


Die ehrliche Beurteilung des Forschungsstandes ist eine der Säulen des Fortschritts. Vielen Dank. Genau.
FauChristian

3

Um es einfach mit Laien auszudrücken: Was sind die möglichen Bedrohungen durch KI?

Derzeit gibt es keine Bedrohung.

Die Bedrohung entsteht, wenn Menschen eine sogenannte ultraintelligente Maschine schaffen, die alle intellektuellen Aktivitäten eines jeden Menschen übertreffen kann. Dies wäre die letzte Erfindung, die der Mensch machen müsste, da diese Maschine Maschinen besser erfinden kann als Menschen (da dies eine intellektuelle Aktivität ist). Dies könnte jedoch dazu führen, dass die Maschine Maschinen erfindet, die Menschen zerstören können, und wir können sie nicht aufhalten, weil sie so viel schlauer sind als wir.

Das ist alles hypothetisch, niemand hat eine Ahnung, wie eine ultraintelligente Maschine aussieht.

Wenn wir wissen, dass KI so gefährlich ist, warum fördern wir sie dann immer noch? Warum ist es nicht verboten?

Wie ich bereits sagte, ist die Existenz einer ultraintelligenten Maschine hypothetisch. Künstliche Intelligenz hat viele nützliche Anwendungen (mehr als diese Antwort enthalten kann), und wenn wir sie entwickeln, erhalten wir noch nützlichere Anwendungen. Wir müssen nur aufpassen, dass die Maschinen uns nicht überholen.


3

Wie Andrew Ng sagte , ist die Sorge um eine solche Bedrohung durch die KI wie die Sorge um die Überbevölkerung auf dem Mars. Es ist Science Fiction.

Geben Sie hier die Bildbeschreibung ein

Angesichts des Aufstiegs von (viel schwächeren) Robotern und anderen (halb-) autonomen Akteuren werden sie jedoch in den Bereichen Recht und Ethik zunehmend einbezogen, siehe z . B. Roboethik .


3

Es gibt eine Reihe langer Ressourcen, um diese Art von Frage zu beantworten: Betrachten Sie Stuart Armstrongs Buch Smarter Than Us , Nick Bostroms Buch Superintelligence , das aus dieser Antwort von edge.org , Tim Urbans Erklärung oder Michael Cohens Erklärung hervorgegangen ist .

Aber hier ist meine (etwas kürzere) Antwort: Bei Intelligenz dreht sich alles um Entscheidungsfindung, und wir haben keinen Grund zu der Annahme, dass Menschen bei weitem nicht die bestmögliche Entscheidungsfindung sind. Sobald wir in der Lage sind, einen KI-KI-Forscher aufzubauen (dh einen Computer, der weiß, wie man Computer besser im Denken macht), wird die wirtschaftliche und militärische Relevanz des Menschen schnell verschwinden, da jede Entscheidung, die ein Mensch treffen könnte, getroffen werden könnte besser von einem Computer. (Warum menschliche Generäle anstelle von Robotergenerälen, menschliche Ingenieure anstelle von Roboteringenieuren und so weiter?)

Dies ist nicht unbedingt eine Katastrophe. Wenn die Vulkanier morgen auftauchen und bessere Entscheidungen auf die Erde bringen würden, könnten wir viel Elend vermeiden. Der schwierige Teil ist sicherzustellen, dass wir Vulkanier bekommen, die uns glücklich und glücklich haben wollen, anstatt etwas, das unsere Werte nicht teilt.


3

Er sagt das, weil es passieren kann. Wenn etwas schlauer wird als wir, warum sollte es uns dann weiterhin dienen? Das schlimmste Szenario ist, dass es alle Herstellungsprozesse übernimmt und alle Materie verbraucht, um sie in berechenbares Material umzuwandeln, das sich unendlich nach außen erstreckt, bis alle Materie verbraucht ist.

Wir wissen, dass KI gefährlich ist, aber es spielt keine Rolle, weil die meisten Menschen nicht daran glauben. Es widerspricht jedem Trost, den die Religion zu bieten hat. Der Mensch ist das Ende des Universums, und wenn diese Tatsache bestritten wird, fühlen sich die Menschen fehl am Platz und zwecklos.

Tatsache ist, dass die meisten Menschen einfach nicht anerkennen, dass es möglich ist oder dass es in unseren Leben passieren wird, obwohl viele seriöse KI-Experten das Auftreten der Singularität innerhalb von zwei Jahrzehnten veranschlagen. Wenn die Leute wirklich anerkennen würden, dass eine KI, die klüger als sie ist, möglich ist, würden sie dann nicht anders leben? Würden sie nicht versuchen, Dinge zu tun, die ihnen Spaß machen, und wissen, dass alles, was sie fürchten, automatisiert wird? Würden nicht alle ein universelles Grundeinkommen fordern?

Der andere Grund, warum wir es nicht verbieten, ist, dass sein Versprechen so groß ist. Ein Forscher könnte durch 1.000 digitale Forschungsassistenten ergänzt werden. Alle manuellen Arbeiten könnten automatisiert werden. Zum ersten Mal bietet uns die Technologie echte Freiheit, alles zu tun, was wir wollen.

Aber selbst in diesem besten Fall, in dem es uns nicht überholt, müssen die Menschen ihr Wirtschaftssystem anpassen und auf ein System umstellen, in dem keine Arbeit erforderlich ist. Andernfalls verhungern und revoltieren diejenigen, die nicht technisch ausgebildet sind.


Haben Sie eine Sauce dafür -> "KI-Experten setzen das Auftreten der Singularität innerhalb von zwei Jahrzehnten" , bitte? ;)
Daniel

Ich kann die ursprüngliche Umfrage anscheinend nicht finden, aber diese Websites kommen sich sehr nahe: aiimpacts.org/predictions-of-human-level-ai-timelines - aiimpacts.org/ai-timeline-surveys - techemergence.com/artificial-intelligence -risk
zavtra
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.