Könnten Menschen eine bewusste oder empfindungsfähige KI verletzen?


9

Wenn eine bewusste KI möglich ist, wäre es dann auch möglich, dass jemand, der weiß, was er tut, die KI foltert (oder verletzt)? Könnte dies vermieden werden? Wie?

Diese Frage befasst sich mit computergestützter KI, nicht mit Robotern, die so bewusst sind wie Menschen (dies ist eine Annahme der Frage). Die Frage fragt sich, wie ein Verbrechen, das so schwer zu verfolgen ist wie illegale Downloads, aber ethisch weitaus schlimmer, verhindert werden könnte. Beachten Sie, dass es trotz der meisten Menschen, die nett und einfühlsam mit den Robotern sind, immer schlechte Menschen gibt und es daher nicht funktioniert, sich auf das allgemeine Gewissen zu verlassen.

Antworten:


9

Der Artikel Kinder schlagen Roboter inspirieren neues Fluchtmanöversystem basiert auf zwei Forschungsarbeiten über ein Experiment in einem japanischen Einkaufszentrum, das dazu führte, dass unbeaufsichtigte Kinder Roboter angriffen. Das Forschungspapier, an dem Sie interessiert sind, ist Flucht vor dem Missbrauch sozialer Roboter durch Kinder .

In diesem Forschungsbericht konnten die Forscher die Roboter so programmieren, dass sie einer Planungssimulation folgen, um die Wahrscheinlichkeit eines Missbrauchs durch Kinder zu verringern. Wenn es Kinder erkennt, ist der Roboter so programmiert, dass er sich in eine Menge von Erwachsenen zurückzieht (die die Kinder dann bei Bedarf disziplinieren können). Dies geschah, weil die Forscher sahen, dass nur Kinder die Roboter in dem fraglichen Einkaufszentrum verprügelten.

Sie diskutieren jedoch, andere Optionen auszuprobieren:

In dieser Arbeit bestand die Strategie des Roboters zur Verhinderung von Missbrauch darin, zu „entkommen“, dh an einen Ort zu gehen, an dem es weniger wahrscheinlich ist, dass Missbrauch auftritt. Man könnte fragen, warum der Roboter den Missbrauch nicht überwinden kann. In unseren Vorversuchen haben wir verschiedene Ansätze ausprobiert, aber wir haben festgestellt, dass es für den Roboter sehr schwierig ist, Kinder davon zu überzeugen, ihn nicht zu missbrauchen. Zum Beispiel haben wir die Formulierungen des Roboters in vielerlei Hinsicht geändert, indem wir starke Worte, emotionale oder höfliche Ausdrücke verwendet haben, aber keine davon war erfolgreich. Eine teilweise erfolgreiche Strategie war, dass der Roboter Kinder „physisch“ schob. Wenn sein Weg blockiert war, versuchte er nur weiterzumachen und sich so zu verhalten, als würde er mit Kindern kollidieren und sich seinen Weg durchzwingen (unter sorgfältiger Überwachung durch einen menschlichen Bediener). Wir beobachteten, dass Kinder zuerst die Anfragen des Roboters akzeptierten und ihnen gehorchten; aber, Sehr bald lernten sie, dass sie stärker als der Roboter sind, so dass sie gewinnen können, wenn sie drücken, und dass sie ihn stoppen können, indem sie den Stoßfängerschalter drücken (der aus Sicherheitsgründen am Roboter angebracht ist). Nachdem sie das erkannt hatten, setzten sie das missbräuchliche Verhalten fort. Offensichtlich würde ein stärkerer Roboter ein Problem für die Sicherheit und die soziale Akzeptanz darstellen, so dass der Umgang mit solchen missbräuchlichen Situationen schwierig bleibt.


Aber lassen Sie uns Ihre Frage weiter befragen:

Wenn bewusste KI möglich und weit verbreitet ist, wäre es dann nicht einfach für jemanden, der weiß, was er tut, um KI zu foltern?

Warum würden Sie solche Folter als falsch betrachten ? Schließlich könnte man argumentieren, dass die Maschine keine Schmerzen hat, wenn Sie sie foltern ... also sollte es moralisch in Ordnung sein, die Maschine dann zu foltern. Es kann sein , reagiert als wenn es Schmerzen hat, aber es ist fraglich , ob die Fähigkeit , einen emotionalen Zustand wie „Schmerzen zu sein“ zu simulieren , entsprechen tatsächlich ist in diesem emotionalen Zustand. Siehe die Frage Ist die Simulation emotionaler Zustände gleichbedeutend mit dem tatsächlichen Erleben von Emotionen? für weitere Diskussionen zu diesem Thema.

Sie können ein solches Argument vorbringen, aber es wird auf emotionaler Ebene nicht wirklich funktionieren, da die meisten Menschen Empathie gegenüber der Maschine empfinden würden . Es mag schwierig sein, es logisch zu rechtfertigen (und es mag auf den Tendenzen des Menschen beruhen, sich auf Anthropomorphismus einzulassen ), aber wir spüren diese Empathie. Es ist diese Empathie, die Sie dazu veranlasst hat, diese Frage zu stellen, Forscher dazu gebracht hat, herauszufinden, wie ein Roboter vor Schlägen geschützt werden kann, es Polizisten ermöglicht hat, einen betrunkenen Japaner zu verhaften, weil er einen SoftBank-Roboter verprügelt hat , und viele Menschen gemacht hat verärgert über die Zerstörung von hitchBOT . Und das istwie KI-Missbrauch vermieden werden würde - menschliches Einfühlungsvermögen. Wenn sich die meisten Menschen um das Wohlergehen von Maschinen kümmern, wird es ihnen zur Priorität gemacht, die wenigen Menschen zu stoppen, die in der Lage und bereit sind, die Maschinen zu missbrauchen.


BEARBEITEN: Das OP hat seine Frage bearbeitet, um zu verdeutlichen, dass es sich um Software und nicht um Roboter handelt. Bei Robotern kann man sich auf Anthropomorphismus verlassen, um ein gewisses Maß an Sympathie zu erzeugen, aber es ist schwierig, mit rohen Codezeilen zu sympathisieren.

Sie werden den Missbrauch von Algorithmen nicht aufhalten. Ehrlich gesagt, da die Algorithmen nicht wie wir sind, werden wir nicht die gleiche Art von Empathie entwickeln, die wir Robotern entgegenbringen würden. Sogar Chatbots sind etwas zweifelhaft. Wenn Sie die Leute dazu bringen könnten, mit Codezeilen zu sympathisieren (möglicherweise durch eine überzeugende Simulation von Emotionen und Geschicklichkeit), dann gilt die obige Antwort: Menschen anthropomorphisieren die Maschine und entwickeln Gegenmaßnahmen. Wir sind noch nicht auf diesem Niveau, daher wird das "Stoppen des KI-Missbrauchs" eine niedrige Priorität haben.

Dennoch könnten einige Failafes programmiert werden, um den Missbrauchsschaden zu begrenzen, wie in diesem Thread zum Chatbot-Missbrauch beschrieben. Der Bot reagiert auf langweilige Weise, damit sich der Missbraucher gelangweilt fühlt und zum nächsten Ziel übergeht und auf den Missbraucher reagiert in einem "Kampf der Köpfe" oder sogar nur die Täter daran zu hindern, den Dienst zu nutzen.

Diese Failafes sind ein kalter Trost für diejenigen, die Missbrauch verhindern und nicht darauf reagieren wollen.

Außerdem ... kann ein Täter gerne lernen, wie man eine KI so programmiert, dass sie nach Herzenslust missbraucht. Es kann nichts unternommen werden, um dies zu stoppen, und alle möglichen Maßnahmen, um diesen Missbrauch zu stoppen (z. B. die Überwachung jedes Menschen, um sicherzustellen, dass er keine KI für Missbrauch programmiert), werden wahrscheinlich mehr Schaden verursachen, als er lösen würde.


TBH das beantwortet meine Frage nicht wirklich, ich denke, ich werde die Frage ein bisschen mehr bearbeiten.
Zitrone

1
@TariqAli Danke für diesen Beitrag. Ich war mir des Problems der Interaktion von Kindern mit sozialen Robotern nicht bewusst, das ich sowohl lustig als auch ergreifend finde. (Ich erinnere mich, dass ich ein kleines Kind in Disney World war und die konsumierten Disney-Figuren wie Mickey Mouse aus einem Übermaß an Anbetung "angegriffen" habe.)
DukeZhou

6

Ich schlage vor, Sie schauen sich alle Möglichkeiten an, wie wir versucht haben, Menschen davon abzuhalten, ANDERE MENSCHEN zu missbrauchen. Hier gibt es keine ethische Grauzone - allen ist klar, dass dies falsch ist. Und doch werden jeden Tag Millionen Menschen ermordet, vergewaltigt und angegriffen.

Wenn wir dieses Problem in Bezug auf menschliche Opfer lösen, wird die resultierende Lösung höchstwahrscheinlich auch für AIs gut funktionieren.


Ich war bereit zu sagen, warum dies nicht vollständig zutraf, aber Sie haben wahrscheinlich trotzdem Recht ...
Destructible Lemon

-1

KI und aggressive Außenperspektive können nicht dupliziert werden. Das Programm wurde nicht wie unsere natürliche Intelligenz erzogen oder gestaltet. Die Daten der KI können nicht mit der Intelligenz der Geisteswissenschaften verglichen werden. Dies entspricht einer emotional-sozialen Denkprozession, die durch das Aufwachsen erfahren wurde, weil unser Design nicht patentiert ist Wie die Programmierung von AI Life, die durch eine auf Beispielen basierende Ingenieurstheorie dupliziert wird, wird die Erfahrung nicht ausreichen. Ein von Menschen geschaffenes Wissen, aber durch Handeln im Laufe der Zeit, nicht durch Handeln, das über Meinungs-Doktorat-Emotionales Engineering entwickelt wurde. Jedoch AI kann unsere emotionale Übermittlung konzeptionell mit einer Software verwenden, die auf Beispielen menschlicher Handlungen basiert und eine unnatürliche Reaktion vorhersagt, falls das Diktieren von Dialogen eines menschlichen Empfängers, der reagiert, ohne zu antworten, als ob er versteht, dass der Bot eine patentierte Künstlichkeit ist, die auf unserer emotionalen Übermittlung basiert, die auf Skripten basiert Zum Gespräch werden wir durch Ursache und Wirkung diagnostizieren können. Ist keine vernünftige Erfahrung, brauchen wir es, um KI zum emotional erlebten Bot zu machen, sollte künstliche Emotion für den Bot unsere Gültigkeit unterscheiden. Wir werden stattdessen sehen, welche Ergebnisse wir erhalten, um Programmeigenschaften zu programmieren, die den Bot dazu bringen, auf künstliche erfahrene Intelligenz zu reagieren, die konzeptionell mit emotionalen Softwaremechaniken entwickelt wurde, von denen wir keine Ahnung haben, welche Ergebnisse wir künstlich erhalten.


2
1. Bitte formatieren Sie diesen Beitrag besser, 2. Bewusste KI ist ein Axiom der Frage, nicht der Frage
Destructible Lemon
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.