Wie kann der EQ eines AI-Programms gemessen werden?


9

Kann ein KI-Programm einen EQ (emotionale Intelligenz oder emotionaler Quotient) haben?

Mit anderen Worten, kann der EQ eines AI-Programms gemessen werden?

Wenn die Messung des EQ problematischer ist als der IQ (zumindest mit einer Standardanwendung für Menschen und KI-Programme), warum ist das so?


Welche 'EQ-Tests' kennen Sie für Menschen? Was wäre das Hindernis, um sie auf eine KI anzuwenden?
NietzscheanAI

Antworten:


6

Die Antwort auf Ihre Frage lautet "Im Prinzip ja" - in der allgemeinsten Form ist der EQ-Test nur ein spezifischer Fall des Turing-Tests ("Wie würden Sie sich über ... fühlen?").

Berücksichtigen Sie die folgenden zwei möglichen Tests, um festzustellen, warum aussagekräftige EQ-Tests möglicherweise schwer zu erreichen sind:

In einem extrem komplexen Fall zeigt der Film 'Blade Runner' einen Test zur Unterscheidung zwischen Mensch und Android anhand von Antworten auf emotional aufgeladene Fragen.

Wenn Sie versuchen würden, diese Fragen (oder sogar viel einfachere) einem modernen Chatbot zu stellen, würden Sie wahrscheinlich schnell zu dem Schluss kommen, dass Sie nicht mit einer Person gesprochen haben.

Das Problem bei der Bewertung des EQ besteht darin, dass das KI-System wahrscheinlich allgemeiner sein muss, je emotional ausgefeilter der Test ist, um die Eingabe in eine aussagekräftige Darstellung umzuwandeln.

Nehmen wir im anderen Extrem an, dass ein EQ-Test extrem strukturiert formuliert wurde, wobei die strukturierte Eingabe von einem Menschen bereitgestellt wurde. In einem solchen Fall basiert der Erfolg eines „EQ-Tests“ nicht wirklich auf der realen Welt.

In einem Aufsatz mit dem Titel "Der unausrottbare Eliza-Effekt und seine Gefahren" gibt Douglas Hofstadter das folgende Beispiel an, in dem das ACME-Programm (nicht von Hofstadter) behauptet wird, die Analogie zu "verstehen".

Hier erfährt der Computer von einem Kerl namens Sluggo, der seine Frau Jane und seinen guten Kumpel Buck in eine Bar bringt, wo die Dinge ihren natürlichen Lauf nehmen und Jane von Buck schwanger wird. Sie hat das Baby, will es aber nicht, und so ertrinkt sie mit Unterstützung ihres Mannes das Baby in einem Fluss und löst so das Problem von Bambi "ordentlich".

Diese Geschichte wird ACME in folgender Form präsentiert:

ql: (neglectful-husband (Sluggo))
q2: (lonely-and-sex-starved-wife (Jane-Doe))
q3: (macho-ladykiller (Buck-Stag))
q4: (poor-innocent-little-fetus (Bambi))
q5: (takes-out-to-local-bar (Sluggo Jane-Doe Buck-Stag))
...
q11: (neatly-solves-the-problem-of (Jane-Doe Bambi))
q12: (cause (ql0 q11))

Angenommen, das Programm sollte gefragt werden, ob Jane Does Verhalten moralisch sei. Komplexe zusammengesetzte emotionale Konzepte wie „vernachlässigbar“, „einsam“ und „unschuldig“ sind hier lediglich Prädikate, die der KI für eine eingehendere introspektive Untersuchung nicht zur Verfügung stehen. Sie könnten genauso gut durch Etiketten wie "bling-blang-blong15657" ersetzt werden.

In gewisser Hinsicht ist das Fehlen eines Erfolgs bei einem EQ-Test mit beliebiger Tiefe ein Hinweis auf das allgemeine Problem, mit dem die KI derzeit konfrontiert ist: die Unfähigkeit, sinnvolle Darstellungen subtiler Komplexitäten der menschlichen Welt zu definieren (oder auf andere Weise zu lernen), was viel mehr ist komplex als Videos von Katzen erkennen zu können.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.