Isaac Asimovs berühmte Drei Gesetze der Robotik entstanden im Kontext von Asimovs Science-Fiction-Geschichten. In diesen Geschichten dienen die drei Gesetze als Sicherheitsmaßnahme, um zu verhindern, dass unzeitgemäße oder manipulierte Situationen im Chaos explodieren.
Meistens fanden Asimovs Erzählungen einen Weg, sie zu brechen, und veranlassten den Schriftsteller, die Gesetze selbst mehrfach zu ändern. Zum Beispiel hat er in einigen seiner Geschichten das Erste Gesetz modifiziert , ein Viertes (oder Zeroth) Gesetz hinzugefügt oder sogar alle Gesetze insgesamt entfernt .
Es ist jedoch leicht zu argumentieren, dass in der Populärkultur und sogar auf dem Gebiet der KI-Forschung die Gesetze der Robotik ziemlich ernst genommen werden. Gibt es Argumente, die das Nebenproblem der unterschiedlichen, subjektiven und sich gegenseitig ausschließenden Auslegungen der Gesetze ignorieren und belegen, dass die Gesetze an sich fehlerhaft sind oder alternativ stark genug für die Anwendung in der Realität? Wurde eine bessere, strengere Sicherheitsheuristik für diesen Zweck entwickelt?