Sind probabilistische Modelle Sackgassen in der KI?


7

Ich glaube fest an Marvin Minskys Idee der künstlichen allgemeinen Intelligenz (AGI), und einer seiner Gedanken war, dass probabilistische Modelle Sackgassen auf dem Gebiet der AGI sind.

Ich würde wirklich gerne die Gedanken und Ideen von Menschen kennen, die anders glauben.


8
Wo hat Minsky gesagt, dass Wahrscheinlichkeitsmodelle Sackgassen sind? Können Sie eine Referenz zur Verfügung stellen, interessiert.
Gottfried William

Antworten:


2

Wenn man effektive Ansätze für AGI in Betracht zieht, muss man nach außen auf die Arten der Modellierung (und damit auf Eingaben) extrapolieren, die notwendig wären, um einen allgemeinen Nutzen zu erzielen. Eine Überlegung könnte die grundlegenden "Bausteine" unserer physischen Welt sein, und das Verständnis der Bewegungen dieser kann zu genauen Vorhersagen von (allen) Ereignissen führen. Diese Grundelemente werden (allgemein) subatomare Teilchen genannt und sind alles andere als diskrete Werte. Je genauer Sie in der Quantenfeldtheorie in der Lage sind, die Position zu messen, desto weniger genau kennen Sie möglicherweise einen Quarkimpuls (und umgekehrt). Unsere Welt ist auf der grundlegendsten Ebene probabilistisch, wenn sie beobachtet wird. Dies alles soll nicht heißen, dass ein Verständnis der quantenmechanischen kinematischen Beschreibungen die einzige Methode ist, um eine echte AGI zu erreichen.

Trotzdem war Dr. Minky nicht der Meinung, dass probabilistische Modelle Sackgassen waren. Die aufkommende Ansicht auf diesem Gebiet, auf die Dr.Minsky jahrelang drängte, ist, dass der Konnektionismus allein aufgrund seiner uniformierten Struktur nicht ausschließlich zu AGI führen kann. Wenn Sie sich nicht bewusst sind, ist Konnektionismus das Konzept, Modelle um diskrete Repräsentationseinheiten (z. B. Neuronen in einem neuronalen Netz) zu erstellen. Sie sehen, das Problem, das wir identifiziert haben, ist nicht, dass probabilistische Modelle ungenau sind, sondern dass unser aktueller Ansatz nicht den für AGI erforderlichen biologischen Realismus ausdrückt (obwohl er für spezifische Intelligenz ausreicht).

[Ich habe kurz mit Dr.Minsky im AI Lab gearbeitet, bevor er letztes Jahr starb, ein lustiger Mann und brillanter Wissenschaftler.]


1
Ich denke nicht, dass "quantenmechanische kinematische Beschreibungen" irgendetwas mit dem Erreichen eines echten AGI zu tun haben, aber ich würde mich freuen, wenn Sie den zweiten Absatz erweitern.
BlindKungFuMaster

2

Ich denke, Minsky lehnte den Vorschlag ab, dass probabilistische Modelle Ersatz für Komponentenmodelle für Intelligenz sein könnten, von denen er vermutete, dass sie auf Prinzipien und Prozessen beruhen, die interagieren (dh Society of Mind). Aber ich glaube nicht, dass er jemals probabilistische Modelle als Sackgassen bezeichnet hat. Alle Intelligenzmodelle müssen sich der Wahrscheinlichkeiten und Ausnahmen bewusst sein. Viele probabilistische Techniken wie Bayes'sche Inferenz und Markov-Ketten werden sich wahrscheinlich als wesentlich für die möglichen Mechanismen eines AGI erweisen.

Ich stimme Ihnen jedoch zu, dass Minsky über die Aussicht, AGI-Systeme mit Techniken wie neuronalen Netzen zu entwerfen, die 1) nur durch überwachte Trainingsbeispiele geformt werden und 2) ihre Argumentation nicht erklären oder direkt und effizient überarbeiten können, unglücklich wäre. Diese Ansätze (körperlose Wahrscheinlichkeiten) modellieren nicht das Denken, sondern nur das Ergebnis des Denkens. Das ist so, als würde man die Frage nicht verstehen, aber trotzdem richtig raten, was sicherlich nützlich ist, aber es ist auch ziemlich uninteressant für jemanden wie Minsky, der den Denkprozess verstehen und nicht nur einen Magic 8 Ball bauen wollte.

Wie würde Minsky auf die jüngsten Fortschritte bei tiefen Netzen wie Variations-Autoencodern oder gegnerischen Netzen oder zusammengesetzten Hierarchien von Netzen oder End-to-End-Netzen reagieren, die breite Fähigkeiten implementieren? Vorausgesetzt, sie können skaliert werden, um AGI erfolgreich zu implementieren, glaube ich, dass er mit ihnen ziemlich unzufrieden ist. Der Gedanke, dass seine Gesellschaft des Geistes sich für mich nur als eine Gesellschaft von zehn (?) Arten von tiefen Netzen herausstellen könnte, die probabilistisch zu Mustern passen und kombinatorisch interagieren - ich denke, dies wäre zutiefst enttäuschend für jemanden, der sich ein Leben lang vorstellte und Verfeinerung von Axiomen, Theorien und Erkenntnissen, nur um festzustellen, dass die exquisiten Köpfe von Einstein und Beethoven kaum mehr als weitgehend reaktive Motoren sein könnten, die stark auf Variationen in der Rotation abgestimmt sind.


Hey, @Randy. Ich denke, die einzig plausible Interpretation ist, dass der AGI-Entwurfsprozess nicht nur ein mathematisches Optimierungsproblem ist, was die meisten, wenn nicht alle ML-Modelle tun, sondern die Reihe von Aktionen und Präferenzen optimieren. Bis zu einem gewissen Grad ist die Art und Weise, wie wir mit Zahlen spielen, ohne sie wirklich zu verstehen, was sie bedeuten, tatsächlich eine Sackgasse. Trotzdem danke für deine Antwort. Beste!
Parth Raghav
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.