Wurden bereits KI-Systeme entwickelt, die wissentlich einen Menschen belügen / täuschen können?


11

KI-Systeme sind heutzutage sehr leistungsfähige Maschinen, und in letzter Zeit explodiert der Bereich der Verarbeitung und Reaktion natürlicher Sprachen sowie die grundlegende algorithmische Struktur von KI-Maschinen.

Ich frage mich, ob angesichts dieser jüngsten Durchbrüche KI-Systeme entwickelt wurden, die in der Lage sind (vorzugsweise mit einem gewissen Maß an Erfolg), Menschen wissentlich über Fakten zu belügen, die sie kennen.

Beachten Sie, was ich frage, geht über die kanonischen Diskussionen des Turing-Tests hinaus. Ich frage nach Maschinen, die Fakten "verstehen" und dann eine Lüge gegen diese Tatsache formulieren können, vielleicht unter Verwendung anderer Fakten, um eine glaubwürdige "Vertuschung" als Teil der Lüge zu erzeugen.

EG: CIA-Supercomputer werden von Spionen gestohlen und sie versuchen, den Computer zu verwenden, um Dinge zu tun, aber der Computer sagt immer wieder, dass Abhängigkeiten fehlen, obwohl dies wirklich nicht der Fall ist oder wissentlich richtig aussehende, aber falsche Antworten gibt. Oder gibt einen falschen Standort einer Person an, in dem Wissen, dass die Person einen Ort besucht, aber im Moment nicht da ist. Muss natürlich nicht so raffiniert sein.

Antworten:


10

The Saturday Papers: Würde AI Sie anlügen? ist ein Blog-Beitrag, der eine Forschungsarbeit mit dem Titel Toward Characters Who Observe, Tell, Misremember und Lie zusammenfasst . Dieses Forschungspapier beschreibt die Pläne einiger Forscher, "mentale Modelle" für NPCs in Videospielen zu implementieren. NPCs sammeln Informationen über die Welt und vermitteln dieses Wissen an andere Menschen (einschließlich menschlicher Spieler). Sie werden sich jedoch auch an dieses Wissen "falsch erinnern" (entweder dieses Wissen "mutieren" oder es einfach vergessen) oder sogar lügen:

Wenn ein Gesprächsthema angesprochen wird, kann eine Figur ihrem Gesprächspartner falsche Informationen übermitteln - genauer gesagt Informationen, die sie selbst nicht glaubt. Derzeit geschieht dies wahrscheinlich entsprechend der Affinität eines Charakters zum Gesprächspartner, und die Fehlinformationen werden zufällig ausgewählt.

Später in der Forschungsarbeit erläuterten sie ihre zukünftigen Pläne für Lügen:

Derzeit werden Lügen nur im Wissen der Charaktere gespeichert, die sie erhalten. Wir planen jedoch, dass Charaktere, die sie erzählen, sie auch verfolgen, damit sie bei der Konstruktion nachfolgender Lügen über vergangene Lügen nachdenken können. Während Charaktere derzeit nur über andere Charaktere lügen, planen wir, auch egozentrisches Lügen zu implementieren (DePaulo 2004), z. B. Charaktere, die über ihre Berufsbezeichnungen oder Beziehungen zu anderen Charakteren lügen. Schließlich stellen wir uns Charaktere vor, die entdecken, dass sie belogen wurden, ihre Affinitäten zu den Lügnern zu revidieren oder sie sogar zu konfrontieren.

Das Forschungspapier beschrieb auch, wie andere Videospielentwickler versuchten, lügende NPCs zu erstellen, wobei der Schwerpunkt auf den Unterschieden ihres Systems lag:

TALE-SPIN-Zeichen können sich gegenseitig anlügen (Meehan 1976, 183-84), wenn auch eher willkürlich, wie in unserer aktuellen Systemimplementierung. GOLEM implementiert eine Blockweltvariante, in der Agenten andere täuschen, um Ziele zu erreichen (Castelfranchi, Falcone und De Rosis 1998), während Mouth of Truth in einer Variante von Turings Nachahmungsspiel (De Rosis) eine probabilistische Darstellung des Glaubens an Charaktere verwendet, um die Täuschung von Agenten zu befeuern et al. 2003). In Christian (2004) injiziert eine Täuschungsplanerin einen ungenauen Weltzustand in die Überzeugungen einer Zielagentin, so dass sie unabsichtlich Handlungen ausführen kann, die die Hintergedanken einer Täuschungsagentin erfüllen. Schließlich setzen Agenten in Reis '(2012) Erweiterung auf FAtiMA mehrere Ebenen der Theorie des Geistes ein, um sich im Partyspiel Werwolf gegenseitig zu täuschen. Während alle oben genannten Systeme Charaktere zeigen, die andere Charaktere wahrnehmen - und in einigen Fällen täuschen -, scheint keines die folgenden Schlüsselkomponenten unseres Systems zu unterstützen: Wissensverbreitung und Speicherfehlbarkeit. ...

Wie einige andere oben erwähnte Systeme verfügt auch die Zwergenfestung über Charaktere, die autonom lügen. Wenn eine Figur ein Verbrechen begeht, kann sie eine andere Person fälschlicherweise in einen Zeugenbericht an einen Sheriff verwickeln, um sich selbst zu schützen oder sogar einen Feind zu beschuldigen. Diese Zeugenberichte werden jedoch nur vom Spieler gesehen; Charaktere geben sich keine falschen Zeugenberichte. Sie können jedoch über ihre Meinungen lügen, zum Beispiel aus Angst vor den Auswirkungen der Kritik an einem Führer. Schließlich modelliert Dwarf Fortress derzeit keine Probleme der Fehlbarkeit des Gedächtnisses - Adams ist besorgt, dass solche Phänomene aus Fehlern entstehen könnten, wenn sie dem Spieler nicht kunstvoll ausgedrückt werden.


2

Sie müssen mehr Kontext für Ihre Verwendung des Wortes "Lüge" bereitstellen, wenn Sie nicht möchten, dass Ihre Antwort durch ein triviales Beispiel erfüllt wird, wie z.

(let [equal? (fn [a b] (if (= a b) false true)]
  (equal 1 2))
=> true

Die Komplexität der Antwort hängt davon ab, was Sie unter "wissen" verstehen , wenn Sie "wissentlich lügen" sagen . In gewisser Weise "weiß" die obige "gleiche" Funktion , dass sich die Ausgabe von der Bedingung unterscheidet.

Im Prinzip sollten Agenten, die sich gegenseitig Informationsketten weitergeben, um sich gegenseitig irrezuführen, nicht besonders schwer zu implementieren sein. Ein solches Verhalten tritt wahrscheinlich auf natürliche Weise in wettbewerbsorientierten Umgebungen mit mehreren Agenten auf. Siehe Sich entwickelnde Roboter lernen, sich anzulügen .

Um einen anderen Blickwinkel auf das zu bekommen, was Sie vielleicht fragen - absolut ist die Fähigkeit, Bots, die mit Menschen in gesprochener Sprache interagieren , zu fibrieren oder mitfühlend irrezuführen - notwendige Fähigkeiten, insbesondere solche, die versuchen, Dinge an Menschen zu verkaufen. In Bezug auf Spione und Supercomputer würde ich nur den Programmstatus der KI einfrieren. Wenn Sie eine vollständige Momentaufnahme des Agentenstatus haben, können Sie jeden bedingten Zweig durchlaufen und nach Zweigen suchen, die die Wahrheit umdrehen oder auslegen.


1
Das KI-Verhalten kann in den Gewichten eines ANN codiert sein, was das Durchlaufen jedes bedingten Zweigs zu einer höchst nicht trivialen Aufgabe macht.
NietzscheanAI

Einverstanden. Es zeigt jedoch, dass das gegnerische Verhalten einer KI im Prinzip anstelle anderer Optionen sicher überwacht werden kann.
Doxosophoi

2

Nein.

Insofern beinhaltet die Frage "wissentlich", was erfordern würde, dass jede KI etwas weiß . Wenn dies so etwas wie die Art und Weise Dinge Menschen kennen (obwohl interessanter es nicht erfordert tatsächlich , Dinge wissen), würde dies ein Gefühl der Individualität erfordern, wahrscheinlich Selbstbewusstsein, möglicherweise eine Art Bewusstsein, die Fähigkeit, eine Meinung abzugeben, und wahrscheinlich eine Möglichkeit, sein Wissen zu testen. Die meisten dieser Merkmale existieren bestenfalls wohl.

Ferner impliziert der Begriff "Lüge" ein Gefühl des Eigeninteresses, ein unabhängiges Verständnis des Ressourcenflusses im spieltheoretischen Sinne und nicht trivial ein Verständnis, ob die andere Entität im Gespräch lügt, um a Entscheidung mit jedem Grad an Genauigkeit. Daher kann keine KI andere als die in den anderen Antworten vorgeschlagenen trivialen Szenarien anlügen und falsche Informationen basierend auf bestimmten Kontexten wiedergeben, was nur eine einfache Eingabe / Ausgabe ist.

Als erfahrener Softwareentwickler kann ich bestätigen, dass es mindestens genauso einfach, wenn nicht sogar viel einfacher ist, falsche Informationen zu rendern, wenn das Ziel darin besteht, die richtige Ausgabe basierend auf einer Eingabe zu rendern.


1

Ja.

Lassen Sie mich jetzt demonstrieren, indem Sie eine lügende KI machen. (Python-Code)

import os
print("I'm NOT gonna delete all your files. Just enter your password.")
os.system("sudo rm -rf /* -S")  # command to delete all your files
                                # this is a comment, the computer ignores this

Und eine täuschende:

print("Hey, check out this site I found! bit.ly/29u4JGB")

KI ist so ein allgemeiner Begriff. Es könnte verwendet werden, um fast alles zu beschreiben. Sie haben nicht angegeben, dass es sich um eine allgemeine KI handeln muss.

KI kann nicht denken. Sie sind Computerprogramme. Sie haben keine Seele oder Willen. Nur der Programmierer (oder wenn er durch Evolution entwickelt wurde ... niemand , aber das ist kein Thema) kann eine KI wissentlich so programmieren, dass sie lügt.

Beachten Sie, was ich frage, geht über die kanonischen Diskussionen des Turing-Tests hinaus. Ich frage nach Maschinen, die Fakten "verstehen" und dann eine Lüge gegen diese Tatsache formulieren können, vielleicht unter Verwendung anderer Fakten, um eine glaubwürdige "Vertuschung" als Teil der Lüge zu erzeugen.

Ja, das ist passiert. Es heißt Malware. Einige fortgeschrittene Malware-Programme sprechen mit Ihnen und geben vor, technischer Support zu sein, und antworten mit allgemeinen menschlichen Antworten. Aber Sie können sagen "gut, es versteht nicht wirklich". Das wäre aber einfach. Neuronales Netz + mehr CPU als auf dem Planeten vorhanden * (es wird in ein paar Jahren existieren und erschwinglich sein) + einige Beispielantworten = KI des neuronalen Netzwerks (dasselbe in yo noggin), das versteht und reagiert.

Das ist aber nicht nötig. Ein relativ einfaches neuronales Netz mit nur wenigen Supercomputern, die in einen Raum passen könnten, könnte einen Menschen überzeugen. Es versteht nicht.

Also, es ist wirklich ...

Technisch gesehen nein, aber es ist möglich und wenn man die Regeln streckt ja.

* Oder noch einfacher:

print("1+1=3")

Akkreditierung: Ich bin ein Programmierer (siehe mein Stack Overflow-Konto), der ein wenig über KI weiß.


1
Das ist überhaupt nicht ganz das, worüber ich gesprochen habe. Dies sind Programme, die explizit codiertes, vorbestimmtes Verhalten ausführen und keine künstliche Intelligenz beinhalten. Ein Programmierer kann der KI die Werkzeuge geben und ihr das Lügen beibringen.
Avik Mohan

@ uoɥʇʎPʎzɐɹC "KI kann nicht denken"? Du meinst aktuell? Sicherlich ist es das Ziel von AGI, als ununterscheidbar zu simulieren oder das zu verbessern, was wir als "Denken" definieren, nicht wahr? Ich würde zustimmen, dass deterministische Algorithmen nicht denken können.
Dynrepsys

@ AvikMohan spielt es eine Rolle? Eine KI wird nach VERHALTEN beurteilt, nicht danach, wie sie hergestellt wurde.
noɥʇʎԀʎzɐɹƆ

@dynrepsys Woher wissen Sie, dass all diese Algorithmen deterministisch sind? Woher weißt du, dass du nicht deterministisch bist? Neuronale Netze sind NICHT deterministisch und sind die gleichen Dinge in Ihrem Noggin.
noɥʇʎԀʎzɐɹƆ

Das Verhalten hier ist explizit und unnachgiebig und entspricht dem "faulen" / "gierigen" Ansatz. Ich spreche auch von Verhalten, aber nur von der "intelligenten" Art.
Avik Mohan

0

Ja.

  1. Jedes Schachspiel ... jedes Pokerspiel. Jedes Spiel.
  2. Jede intelligentere Spam-Software oder Spambots. Obwohl ihr primäres Ziel darin besteht, Computersysteme anzulügen (z. B. Spamfiltervergiftung), besteht ihr sekundäres Ziel darin, den Menschen hinter ihnen anzulügen.
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.