Gilt das Argument des chinesischen Raums gegen die KI?


10

Als ich noch am College war, hatte ich einen Lehrer für Komplexitätstheorie, der erklärte, künstliche Intelligenz sei ein Widerspruch. Wenn es mechanisch berechnet werden könne, sei es keine Intelligenz, sondern Mathematik.

Dies scheint eine Variante des Chinese Room-Arguments zu sein. Dieses Argument ist eine Metapher, in der eine Person in einen Raum voller chinesischer Bücher gebracht wird. Diese Person versteht kein Wort Chinesisch, aber es werden Nachrichten auf Chinesisch unter die Tür geschoben. Die Person muss die Bücher verwenden, die Transformationsregeln enthalten, um diese Nachrichten zu beantworten. Die Person kann die Transformationsregeln anwenden, versteht jedoch nicht, was sie kommuniziert.

Gilt das chinesische Raumargument? Können wir argumentieren, dass künstliche Intelligenz nur eine clevere Algorithmusik ist?

Antworten:


5

Es gibt zwei Arten von Antworten auf solche philosophischen Fragen.

Das erste ist, Analogien zu ziehen und sich auf die Intuition zu beziehen; man könnte zum Beispiel tatsächlich die notwendige Größe für einen solchen chinesischen Raum berechnen und vorschlagen, dass er außerhalb des Bereichs der Intuition existiert und daher alle Analogien, die ihn verwenden, verdächtig sind.

Die zweite besteht darin, zu versuchen, die Begriffe genauer zu definieren. Wenn wir unter "Intelligenz" nicht "das Magische, was Menschen tun", sondern "Informationsverarbeitung" verstehen, dann können wir sagen "Ja, offensichtlich beinhaltet der chinesische Raum eine erfolgreiche Informationsverarbeitung".

Ich bevorzuge eher die zweite, weil sie Gespräche zu beobachtbaren Ergebnissen zwingt und die Schwierigkeit, einen Begriff wie "Intelligenz" zu definieren, auf die Person legt, die Behauptungen darüber aufstellen möchte. Wenn "Verstehen" eine amorphe Definition haben darf, kann man sagen, dass jedes System Verständnis hat oder nicht. Wenn "verstehen" selbst als beobachtbares Verhalten verstanden wird, wird es zunehmend schwieriger, ein Beispiel für ein System zu konstruieren, das "nicht intelligent" ist und dennoch alle beobachtbaren Konsequenzen der Intelligenz teilt.


5

Es kommt auf die Definition von (künstlicher) Intelligenz an.

Die Position, die Searle ursprünglich mit dem chinesischen Raumexperiment zu widerlegen versuchte, war die sogenannte Position einer starken KI: Ein entsprechend programmierter Computer würde einen Geist im gleichen Sinne haben wie Menschen einen Geist.

Alan Turing versuchte mit dem Turing-Test eine Definition der künstlichen Intelligenz zu geben und erklärte, dass eine Maschine intelligent ist, wenn sie den Test bestehen kann. Der Turing-Test wird hier vorgestellt . Ich werde es nicht im Detail erklären, da es für die Antwort nicht wirklich relevant ist. Wenn Sie (künstliche) Intelligenz wie Turing definieren, ist das chinesische Raumexperiment nicht gültig.

Das chinesische Raumexperiment soll also zeigen, dass ein entsprechend programmierter Computer nicht mit einem menschlichen Verstand identisch ist und dass Turings Test daher nicht gut ist.


"Starke KI" wird normalerweise verwendet, um sich auf KI zu beziehen, die intelligent genug ist, um sich selbst zu verbessern, und nicht, dass sie einen "Verstand" in dem Sinne hat, dass Menschen "Verstand" haben.
Matthew Graves

4

Um eine detaillierte Ansicht des Arguments zu erhalten, lesen Sie zunächst den SEP-Eintrag im chinesischen Raum .

Ich betrachte die Ratingagentur als Indikator für Ihre Definition von Intelligenz. Wenn das Argument zutrifft, versteht die Person im Raum Chinesisch. Fassen wir jedoch die drei im SEP-Eintrag erörterten Antworten zusammen:

  1. Der Mann selbst versteht kein Chinesisch (er würde es außerhalb des Raumes nicht verstehen können), aber der Systemmann + Raum versteht es. Das Akzeptieren dieser Antwort legt nahe, dass es ein intelligentes System geben kann, dessen Teile selbst nicht intelligent sind (was vom menschlichen Körper selbst argumentiert werden kann).

  2. Das System versteht kein Chinesisch, da es nicht auf die gleiche Weise mit der Welt interagieren kann, wie es ein Roboter oder ein Mensch könnte (dh es kann nicht lernen, ist auf die Anzahl der Fragen beschränkt, die es beantworten kann).

  3. Das System versteht kein Chinesisch (abhängig von Ihrer Definition des Verstehens ), und Sie können nicht sagen, dass ein Mensch die gleichen Leistungen erbringt wie der chinesische Raum, der auch Chinesisch versteht.

Ob das Argument oder eine Variante davon zutrifft, hängt also von Ihren Definitionen von intelligent , verständnisvoll , davon ab, wie Sie das System definieren usw. Der Punkt ist, dass das Gedankenexperiment eine gute Möglichkeit ist, zwischen den Definitionen (und vielen anderen) zu unterscheiden. Es wurden viele Debatten darüber geführt, um nicht endlos aneinander vorbei zu reden.


Gute Antwort. Es gibt keine Erkenntnis, die außerhalb eines breiteren Systems stattfindet. Menschen haben lange Zeit Technologien wie Bücher und Werkzeuge eingesetzt, um ihre Erkenntnis zu ergänzen. Zuvor waren Menschen auf andere Menschen und die natürliche Umwelt angewiesen (hinterließen einen Marker, der auf eine Nahrungsquelle hinweist usw.).

2

Kommt darauf an, wen du fragst! John Searle, der dieses Argument vorschlug, würde "Ja" sagen, aber andere würden sagen, dass es irrelevant ist. Der Turing-Test schreibt nicht vor, dass eine Maschine tatsächlich "verstehen" muss, was sie tut, solange es einem Menschen so erscheint. Man könnte argumentieren, dass unser "Denken" nur eine ausgefeiltere Form kluger Algorithmen ist.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.