Wie kann emotionale Intelligenz implementiert werden?


22

Ich habe emotionale Intelligenz als die Fähigkeit definiert, die eigenen Emotionen wahrzunehmen, zu kontrollieren und auszudrücken und umsichtig und einfühlsam mit zwischenmenschlichen Beziehungen umzugehen.

  1. Mit welchen Strategien kann künstliche Intelligenz dieses Problem angehen und emotionale Intelligenz für Computer entwickeln?

  2. Gibt es Beispiele, bei denen dies bereits heute zu einem gewissen Grad geschieht?

  3. Würde ein Computer, der einen Turing-Test besteht, nicht notwendigerweise emotionale Intelligenz ausdrücken, oder würde er als offensichtlicher Computer angesehen?

    Vielleicht stellten deshalb frühe Programme, die den Test bestehen, junge Menschen dar, die vermutlich eine geringere emotionale Intelligenz haben.


Ein künstliches Äquivalent zu en.wikipedia.org/wiki/Theory_of_mind ist wahrscheinlich notwendig, obwohl es schwer zu sagen ist, wie es implementiert werden könnte / sollte.
Peteris

Antworten:


19

Architekturen zum Erkennen und Erzeugen von Emotionen sind normalerweise etwas komplex und haben im Allgemeinen keine kurzen Beschreibungen. Daher ist es wahrscheinlich besser, auf die Literatur zu verweisen, als einen irreführenden Soundbite zu geben:

Einige der frühen Arbeiten in Affective Computing wurden von Rosamund Picard durchgeführt. Am MIT gibt es eine Forschungsgruppe, die sich auf diesen Bereich spezialisiert hat.

Einige der weiterentwickelten architektonischen Ideen sind Marvin Minsky zu verdanken. Ein Vorentwurf seines Buches "The Emotion Machine" ist über Wikipedia erhältlich .

Emotionale Intelligenz scheint sicherlich eine notwendige Komponente für das Bestehen des Turing-Tests zu sein - tatsächlich implizierte der ursprüngliche Turing-Test-Aufsatz in Computing Machinery and Intelligence ein gewisses Maß an "Theory of Mind" über Mr. Pickwicks Vorlieben:

"Weihnachten ist jedoch ein Wintertag, und ich glaube, Mr. Pickwick würde den Vergleich nicht stören."


6

Was Ihren Kommentar zu einem Computerprogramm betrifft, das eine geringere emotionale Intelligenz aufweist, finden Sie Eliza (die Sie hier ausprobieren können ) möglicherweise interessant. Es ist klassisch in der Geschichte der KI und gibt vor, einen Analytiker (Psychologie) nachzuahmen.

Ich denke jedoch, dass Ihre Frage heutzutage mehr in das Feld der Mensch-Roboter-Interaktion passt , das sich hauptsächlich auf das Sehen stützt, um Gesten zu erkennen und Bewegungen zu folgen, sowie auf weiche, natürliche Bewegungen als Antwort. Beachten Sie, dass die Bewegungen von Gesicht und Händen zu den komplexesten Aufgaben gehören, an denen viele Muskeln gleichzeitig beteiligt sind.

Ich empfehle dringend den Film Plug & Pray , um eine Vorstellung davon zu bekommen, was die Leute in diesem Bereich erforschen.

Auf der rein menschlichen Seite wundere ich mich manchmal über unsere (meine) emotionale Intelligenz. Würde ich eine solche Intelligenz überhaupt in einem künstlichen Agenten implementieren wollen?


Ich erinnere mich, warum ich an Eliza dachte: nicht wegen ihrer emotionalen Intelligenz, sondern weil sie anscheinend von ein paar Menschen ernst genommen wurde. Könnte dies als eine Art (genehmigter) Turing-Test angesehen werden? Was sagt es über die Menschen aus, denen es begegnet ist?


1
Eliza ist kein wirklich gutes Modell menschlicher Emotionen: Sie wurde genau deshalb ausgewählt, weil die "professionelle Distanzierung" des Analytikers bedeutet, dass es einigermaßen glaubwürdig ist, ohne Rücksicht auf die Aussagen des Benutzers leidenschaftslos zu handeln.
NietzscheanAI

@ user217281728 Da hast du definitiv einen Punkt.
Luis

2

Emotionen können Sie nicht umsetzen - sie sind sehr komplex. Sie können jedoch versuchen, sie nachzuahmen. Menschliche Emotionen sind eng mit bewusster Erfahrung verbunden, die durch intensive mentale Aktivität gekennzeichnet ist, die auf der Interpretation von Ereignissen beruht.

Neuere Hirnstudien (einschließlich Forschungen in Kognitionspsychologie und Neurophysiologie) legen nahe, dass die emotionale Beurteilung jeder Handlung oder jedes Ereignisses durch den Menschen eine wichtige Rolle bei menschlichen mentalen Prozessen spielt.

Das Jahrestreffen 2016 der BICA-Gesellschaft brachte Wissenschaftler aus der ganzen Welt zusammen, um Prinzipien und Mechanismen des menschlichen Denkens zu untersuchen und eine biologisch inspirierte KI zu schaffen.

In Samsonovichs Vorschlag (Professor an der Kybernetik-Abteilung des MEPhI ) geht es beispielsweise darum, KI in Computerspielen zu testen, die Aktionen mit emotionalem Inhalt beinhalten, bei denen KI sich mit Spielern in verschiedenen Arten sozialer Beziehungen (z. B. Vertrauen) befassen kann , Unterordnung oder Führung).

Jonathan Gratch vom ICT hat virtuelle Charaktere erfunden, die in der Lage sind, Emotionen zu identifizieren und auszudrücken, indem sie mit Menschen in ihrer natürlichen Sprache kommunizieren, basierend auf Situationen, in denen zum Beispiel die KI einen Menschen täuschen kann, um das gewünschte Ergebnis zu erzielen. Der Effekt wird offensichtlich nicht durch die Wiederherstellung des menschlichen Bewusstseins erzielt, sondern durch die statistische Anpassung von Parametern.

Forscher des Instituts für Cyber-Intelligence-Systeme in MEPhI hoffen, in naher Zukunft virtuelle Wesen schaffen zu können, die in der Lage sind, zu planen, Ziele zu setzen und soziale Beziehungen zum Menschen aufzubauen, auch durch emotionale und narrative Intelligenz, die das interpretieren kann Kontext der Ereignisse.

Quelle: Forscher schlägt sozialen Emotionstest für künstliche Intelligenz vor


3
Emotionen können Sie nicht implementieren [Zitieren benötigt]. Dies deutet darauf hin, dass Emotionen auf einer anderen Ebene liegen als die von Turing-Maschinen, und es gibt kein Element, das dies beweist (ausgenommen religiöse Argumente, die irrelevant sind).
Fatalize

1

Vielleicht kennen Sie Word2Vec (W2V), das, wie Wikipedia beschreibt, 1 "die sprachlichen Kontexte von Wörtern erfasst", indem es Vektorarithmetik verwendet. Subtrahieren Sie beispielsweise "Paris" von "Frankreich" und fügen Sie "Italien" hinzu, und Sie erhalten "Rom".

Was Sie brauchen, ist so etwas wie ein Sentiment2Vec (S2V), das die Ähnlichkeiten zwischen emotionalen Übergängen erfasst. Etwas wie: "Angst" von "Traurigkeit" abziehen, "Freude" hinzufügen und "Hoffnung" erhalten. Oder: subtrahieren Sie "Stich" von "Papierschnitt", fügen Sie "zertrümmert" hinzu und Sie bekommen "Pochen".

Der Haken ist, dass Sie nicht über ein leicht zugängliches Korpus emotionaler Kontexte verfügen, mit denen Sie trainieren können, wie Sie es mit Worten tun. Wenn Sie eine Million Stunden fMRI hätten - die Übergänge zwischen Emotionen in Hunderten von Subjekten abbilden - dann könnten Sie diese Daten verwenden, um ein S2V zu bauen. Sie haben diese Daten wahrscheinlich nicht.

In der Zwischenzeit könnten Sie einfach einen W2V bauen, der sich auf Stimmung spezialisiert. Sie könnten sogar versuchen, eine aktuelle Stimmungsanalyse-Engine zu verwenden, um sie zu booten. Wenn Sie genug Text mit den Worten "Ich habe einen Papierschnitt und er sticht" und "Ich habe meinen Finger zertrümmert und es pocht" gelesen haben, könnten Sie möglicherweise einen S2V produzieren. Kinderbücher verwenden oft eine explizite Sprache in Bezug auf den emotionalen Kontext ("das hat den Jungen traurig gemacht").

Aber Wörter sind immer noch weit entfernt von dem Erfahrungskontext, den eine Connectome-Karte bieten würde. Um zu testen, ob Sie etwas Nützliches haben oder nicht, möchten Sie Ihr S2V möglicherweise in eine Maus-Futtersimulation implementieren - prüfen Sie, ob es ein typisches Verhalten erzeugt und ob aus Ihrem S2V eine kooperative oder wettbewerbsorientierte Dynamik hervorgehen kann.

Einige weitere Informationen zum Thema:

Im Jahr 2014 gab die Universität Glasgow 2 an, dass es vier Hauptemotionen gibt: Glück, Traurigkeit, Angst und Wut.

Diese Website 3 bietet eine nette (wenn auch etwas kurze) hierarchische Aufteilung von sekundären und tertiären Emotionen unter primären Emotionen.


Verweise

1 : en.wikipedia.org/wiki/Word2vec

2 : www.bbc.com/news/uk-scotland-glasgow-west-26019586

3 : changingminds.org/explanations/emotions/basic%20emotions.htm


1
Sie können immer Links hinzufügen ...
Mithical

0

Die Art und Weise, wie ich Emotionen in einem AGI-System mache, besteht aus ein paar kleinen Teilen, Agenten, die in den Statusregistern des Systems abstimmen. Wenn die Vereinigung der Agenten richtig zusammenarbeitet. Dies ist der unbewusste Teil.

Der bewusste Teil, der Bewegungen in der Umgebung plant, schließt diese Systemstatus-Zustandsregister in alle geplanten Bewegungen ein.

Alle Emotionen können aus diesen Registern abgeleitet werden:

https://groups.google.com/forum/#!topic/artificial-general-intelligence/pxWmHClAAdA

https://groups.google.com/forum/#!topic/artificial-general-intelligence/jWdzPaxYHmU

https://groups.google.com/forum/#!forum/artificial-general-intelligence

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.