Laut Wikipedia ...
Der KI-Effekt tritt auf, wenn Zuschauer das Verhalten eines Programms für künstliche Intelligenz ignorieren, indem sie argumentieren, dass es sich nicht um echte Intelligenz handelt.
Pamela McCorduck schreibt: "Es ist Teil der Geschichte des Gebiets der künstlichen Intelligenz, dass jedes Mal, wenn jemand herausfand, wie man einen Computer dazu bringt, etwas zu tun - gute Kontrolleure zu spielen, einfache, aber relativ informelle Probleme zu lösen -, gab es einen Chor von Kritikern zu sagen:" das denkt nicht '. "[1] Der KI-Forscher Rodney Brooks beschwert sich." Jedes Mal, wenn wir ein Stück davon herausfinden, hört es auf, magisch zu sein. Wir sagen:' Oh, das ist nur eine Berechnung. '"[2]
Die Wikipedia-Seite schlägt dann verschiedene Gründe vor, die erklären könnten, warum Zuschauer KI-Programme "rabattieren" könnten. Diese Gründe scheinen jedoch zu implizieren, dass die Menschen einen Fehler machen, wenn sie das Verhalten von KI-Programmen "diskontieren" ... und dass diese KI-Programme tatsächlich intelligent sein könnten. Ich möchte ein alternatives Argument vorbringen, bei dem die Menschen einen Fehler machen, aber nicht das Verhalten von KI-Programmen "diskontieren".
Betrachten Sie die folgende Situation. Ich möchte eine Maschine bauen, die X kann (wobei X ein Merkmal ist, wie Intelligenz). Ich kann intuitiv beurteilen, ob eine Maschine diese X-Kriterien hat. Aber ich habe keine gute Definition dessen, was X eigentlich ist . Ich kann nur feststellen, ob etwas X hat oder nicht.
Ich denke jedoch, dass Leute mit X Y können. Wenn ich also eine Maschine baue, die Y kann, dann habe ich sicherlich eine Maschine mit X gebaut.
Nachdem ich die Maschine gebaut habe, die Y kann, überprüfe ich sie, um festzustellen, ob meine Maschine X hat. Und das tut sie nicht. Meiner Maschine fehlt also X. Und während eine Maschine, die Y kann, cool ist, möchte ich wirklich eine Maschine mit X. Ich gehe zurück zum Zeichenbrett und denke über eine neue Idee nach, um X zu erreichen.
Nachdem ich ein paar Stunden auf das Whiteboard geschrieben habe, stelle ich fest, dass Leute mit X Z können. Natürlich! Ich versuche eine neue Maschine zu bauen, die Z kann, ja, wenn sie Z kann, muss sie X haben.
Nachdem ich die Maschine gebaut habe, die Z kann, überprüfe ich, ob sie X hat. Dies ist nicht der Fall. Und so kehre ich zum Zeichenbrett zurück und der Zyklus wiederholt sich und wiederholt sich ...
Im Wesentlichen versuchen Menschen über Proxy-Messungen festzustellen, ob eine Entität über Intelligenz verfügt, aber diese Proxy-Messungen sind möglicherweise fehlerhaft (da es möglich ist, diese Proxy-Messungen zu erfüllen, ohne jemals tatsächlich über Intelligenz zu verfügen). Bis wir wissen, wie man Intelligenz definiert und einen Test entwirft, der sie genau messen kann, ist es sehr unwahrscheinlich, dass wir eine Maschine mit Intelligenz bauen. Der KI-Effekt tritt also auf, weil Menschen nicht wissen, wie man "Intelligenz" definiert, und nicht, weil Leute Programme als nicht "intelligent" abtun.
Ist dieses Argument gültig oder richtig? Und wenn nicht, warum nicht?