Sind die Asimovschen Gesetze entwurfsbedingt fehlerhaft oder in der Praxis durchführbar?


19

Isaac Asimovs berühmte Drei Gesetze der Robotik entstanden im Kontext von Asimovs Science-Fiction-Geschichten. In diesen Geschichten dienen die drei Gesetze als Sicherheitsmaßnahme, um zu verhindern, dass unzeitgemäße oder manipulierte Situationen im Chaos explodieren.

Meistens fanden Asimovs Erzählungen einen Weg, sie zu brechen, und veranlassten den Schriftsteller, die Gesetze selbst mehrfach zu ändern. Zum Beispiel hat er in einigen seiner Geschichten das Erste Gesetz modifiziert , ein Viertes (oder Zeroth) Gesetz hinzugefügt oder sogar alle Gesetze insgesamt entfernt .

Es ist jedoch leicht zu argumentieren, dass in der Populärkultur und sogar auf dem Gebiet der KI-Forschung die Gesetze der Robotik ziemlich ernst genommen werden. Gibt es Argumente, die das Nebenproblem der unterschiedlichen, subjektiven und sich gegenseitig ausschließenden Auslegungen der Gesetze ignorieren und belegen, dass die Gesetze an sich fehlerhaft sind oder alternativ stark genug für die Anwendung in der Realität? Wurde eine bessere, strengere Sicherheitsheuristik für diesen Zweck entwickelt?


Hüte dich vor dem Killbot Hellscape! xkcd.com/1613
NietzscheanAI

Wir dürfen diese Möglichkeit nicht vergessen: xkcd.com/1450
dynrepsys

Asimovs Gesetze sind nur ein kleiner Versuch, die Diskussion in Gang zu setzen. Für eine viel gründlichere Diskussion lesen Sie "Superintelligence" von Nick Bostrom - das ist so erschöpfend, wie es auf aktuellem Wissen und Verständnis basiert.
Florin Andrei

Antworten:


12

Asimovs Gesetze sind nicht stark genug, um in der Praxis angewendet zu werden. Stärke spielt keine Rolle, wenn man bedenkt, dass Wörter, die in englischer Sprache geschrieben sind, erst subjektiv interpretiert werden müssen, um überhaupt eine Bedeutung zu haben. Eine gute Diskussion dazu finden Sie hier .

So transkribieren Sie einen Auszug:

Wie definieren Sie diese Dinge? Wie definieren Sie "menschlich", ohne zunächst zu fast jedem Thema Stellung nehmen zu müssen? Und wenn "menschlich" nicht hart genug war, müssen Sie "Schaden" definieren und Sie haben wieder das gleiche Problem. Fast alle wirklich soliden eindeutigen Definitionen, die Sie für diese Wörter geben - die sich nicht auf die menschliche Intuition stützen - führen zu seltsamen Macken der Philosophie, die dazu führen, dass Ihre KI etwas tut, was Sie wirklich nicht wollen.

Man kann sich leicht vorstellen, dass Asimov klug genug war, dies zu wissen, und sich mehr für das Schreiben von Geschichten interessierte als für das Entwerfen realer AI-Steuerungsprotokolle.

In dem Roman Neuromancer wurde vorgeschlagen, dass AIs möglicherweise als Kontrolle gegeneinander dienen könnten. Die bevorstehende Singularität von Ray Kurzweil oder die Möglichkeit hyperintelligenter AGIs lassen für den Menschen möglicherweise kaum eine Möglichkeit, AIs zu kontrollieren, und lassen Peer-Regulation als einzig mögliche Möglichkeit übrig.

Es ist erwähnenswert, dass Eliezer Yudkowsky und andere ein Experiment durchführten, bei dem Yudkowsky die Rolle einer superintelligenten KI mit der Fähigkeit zu sprechen spielte, aber keine andere Verbindung außerhalb einer verschlossenen Box. Die Herausforderer hatten lediglich die Aufgabe, die KI um jeden Preis in der Box zu halten. Yudkowsky entkam beide Male.


Wissen Sie, ob jemals ein Transkript der Yudkowsky-Experimente veröffentlicht wurde? Der von Ihnen angegebene Link (und der E-Mail-Austausch, zu dem er dann führt) scheint keinen zu bieten.
NietzscheanAI

@ user217281728 Nein, ich habe es gesucht, aber es scheint, als würde er es behalten, dh seine Strategie wird geheim gehalten, um die Möglichkeit aufrechtzuerhalten, es erneut zu tun. Ich habe einige Ideen darüber, was er gesagt hat und warum ich das denke, die ich gerne teilen würde, wenn Sie mich DM.
Dynrepsys

Ich habe das jetzt getan.
NietzscheanAI

Ich habe den Eindruck, dass Asimov klug genug war, dies zu wissen, aber der Punkt war, dass einfache Regeln nicht funktionieren. Negative Beispiele hervorzuheben ("Man kann nicht einfach sagen, dass es Menschen nicht schadet, das funktioniert nicht"), ist eine nützliche, eigenständige KI-Kontrollarbeit in der Praxis.
Matthew Graves

2

Asimov hat die drei Gesetze speziell erstellt, um zu beweisen, dass keine drei Gesetze ausreichen, egal wie vernünftig sie auf den ersten Blick erscheinen. Ich kenne einen Mann, der den Mann kannte und er bestätigte dies.


2
"Ich kenne einen Mann, der den Mann gekannt hat" ... Haben Sie keine etwas zuverlässigere Quelle? Ich bezweifle Ihre Antwort nicht, aber es sollte sicherlich bereits ein richtiges Zitat zu diesem Thema geben.
3442

Sein Name war Ben Williams. Dies ist der Google Plus-Beitrag, in dem er seine Meinungen zu Asimov und den drei Gesetzen beschrieb: plus.google.com/+JohnNewmanIII/posts/HeTnPdhaY9p
Doxosophoi

0

Betrachten Sie Asimovs erstes Gesetz der Robotik:

Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit einem Menschen Schaden zufügen.

Dieses Gesetz ist bereits problematisch, wenn es um selbstfahrende Autos geht.

Was ist das Problem hier, fragst du? Nun, Sie werden wahrscheinlich mit dem klassischen ethischen Gedankenexperiment vertraut sein, das als Trolley-Problem bekannt ist . Die allgemeine Form des Problems ist folgende:

Der Wagen fährt direkt auf sie zu. Sie stehen ein Stück entfernt im Zughof neben einem Hebel. Wenn Sie diesen Hebel ziehen, wechselt der Wagen zu einem anderen Satz von Schienen. Sie bemerken jedoch, dass sich eine Person auf der Nebenstrecke befindet. Sie haben zwei Möglichkeiten: (1) Tun Sie nichts und der Wagen tötet die fünf Personen auf der Hauptstrecke. (2) Ziehen Sie den Hebel und lenken Sie den Wagen auf die Seitenschiene, wo eine Person getötet wird. Welches ist die richtige Wahl?

Quelle: Wikipedia

Selbstfahrende Autos müssen tatsächlich reale Variationen des Trolley-Problems implementieren, was im Grunde bedeutet, dass selbstfahrende Autos so programmiert werden müssen, dass sie Menschen töten .

Das bedeutet natürlich nicht, dass ALLE Roboter zum Töten programmiert werden müssen, aber selbstfahrende Autos sind ein gutes Beispiel für einen Robotertyp, der dies tut.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.