Gibt es ein wissenschaftlich-mathematisches Argument, das verhindert, dass tiefes Lernen jemals eine starke KI hervorbringt?


12

Ich habe Judea Pearl's The Book of Why gelesen , in dem er erwähnt, dass Deep Learning nur eine verherrlichte Technologie zur Kurvenanpassung ist und keine menschenähnliche Intelligenz erzeugen kann.

Aus seinem Buch gibt es dieses Diagramm, das die drei Ebenen der kognitiven Fähigkeiten veranschaulicht:

Drei Ebenen kognitiver Fähigkeiten

Die Idee ist, dass die "Intelligenz", die durch die aktuelle Deep-Learning-Technologie erzeugt wird, nur auf der Ebene der Assoziation liegt. Somit ist die KI bei weitem nicht in der Lage, Fragen zu stellen wie "Wie kann ich Y verwirklichen" (Intervention) und "Was passiert, wenn ich anders gehandelt habe, wird X immer noch auftreten?" (Kontrafakten), und es ist höchst unwahrscheinlich, dass Kurvenanpassungstechniken uns jemals einem höheren Grad an kognitiven Fähigkeiten näher bringen können.

Ich fand sein Argument auf einer intuitiven Ebene überzeugend, aber ich kann keine physikalischen oder mathematischen Gesetze finden, die dieses Argument entweder stützen oder in Zweifel ziehen können.

Gibt es also ein wissenschaftliches / physikalisches / chemisches / biologisches / mathematisches Argument, das verhindert, dass tiefes Lernen jemals eine starke KI (menschenähnliche Intelligenz) hervorbringt?


Vor ein paar Stunden hatten wir eine Art Quetion, die sich mit Neurowissenschaften und künstlicher Intelligenz befasst. Ich denke, diese Frage passt zu Datenanwendungen, abgesehen vom maschinellen Lernen.
Quintumnia

1
Eines der Probleme bei der Beantwortung dieser Frage ist, dass "Deep Learning" eine Art Markenname ist, bei dem Dinge mit neuronalen Netzen erledigt werden, die über die statistische Kurvenanpassung hinausgehen - z. B. RNNs für Lernsequenzen und "Deep Reinforcement Learning" - auch von Anhängern als Teil davon angesehen werden. Wenn Sie zulassen, dass sich der Begriff so entwickelt, ist es sehr schwierig, Argumente für seine Fähigkeiten zu finden.
Neil Slater

Gödels Unvollständigkeitssatz
riemann77

2
@thecomplexitytheorist: Godels Unvollständigkeit, Entscheidungsungsproblem und Ähnliches, alles, was sie auch für den menschlichen Verstand gelten. Wenn sie ein Grund waren, die KI nicht zu erreichen, sind keine Menschen intelligent. Modus tollens, Godels ist kein Problem auf dem Weg zu AGI
pasaba por aqui

Wer soll sagen, dass "Tun" und "Vorstellen" auch nicht einfach "Kurvenanpassung" im Gehirn stattfinden?
Dunk

Antworten:


3

Der Kommentar von Judea Pearl aus dem Jahr 2018 zu ACM.org in seinem Buch „ Wirklich intelligente Maschinen bauen, lehren sie Ursache und Wirkung“ durchdringt die Wahrheit.

Alle beeindruckenden Errungenschaften des tiefen Lernens laufen nur auf Kurvenanpassung hinaus.

R.n

  1. Künstliche Netzwerke können keine Logik ausführen.
  2. Künstliche Netzwerke sind der beste Ansatz für KI.

Wie kann Rationalität von der Liste wichtiger menschlicher Merkmale der Intelligenz ausgeschlossen werden, was diese beiden Behauptungen zusammen bedeuten würden?

Ist das menschliche Gehirn ein Netzwerk hochentwickelter Kurvenmonteure? Marvin Minskys berühmtes Zitat "Das Gehirn ist zufällig eine Fleischmaschine" wurde ohne Beweis angeboten, und seitdem wurde weder ein Beweis für seine Trivialisierung des menschlichen Gehirns noch ein Beweis dafür erbracht, dass das Gehirn außerhalb der Reichweite der Berechenbarkeit von Turing liegt .

Führen Ihre neuronalen Netze beim Lesen dieser Wörter die folgende Folge von Kurvenanpassungen durch?

  • Kanten von Netzhautstäben und Zapfen
  • Linien von Kanten
  • Formen aus Linien
  • Buchstaben aus Formen
  • Sprachelemente aus Buchstabengruppen
  • Sprachstrukturen aus Elementen
  • Verständnis aus sprachlichen Strukturen

Die Behauptung, dass die ersten fünf ein Konvergenzmechanismus für ein Modell sind und die gesamte Struktur des maschinellen Lernens nur eine Methode ist, um die Daten an das Modell anzupassen, spricht stark dafür.

In den letzten beiden Punkten bricht das Paradigma zusammen und viele KI-Forscher und Autoren haben zu Recht festgestellt, dass maschinelles Lernen erhebliche Einschränkungen aufweist, wenn es ausschließlich auf mehrschichtigen Perceptrons und Faltungskernen basiert. Darüber hinaus ist der letzte Punkt in seinem aktuellen Zustand stark vereinfacht, wahrscheinlich um Größenordnungen. Selbst wenn Minsky richtig ist, dass ein Computer das ausführen kann, was das Gehirn tut, kann der Prozess des Lesens und Verstehens dieses Absatzes leicht tausend verschiedene Arten einzigartiger Prozesskomponenten in Mustern des internen Workflows mit massiver Parallelität aufweisen. Die Bildgebungstechnologie zeigt diese Wahrscheinlichkeit an. Wir haben Computer, die nur die einfachsten peripheren Schichten modellieren.

Gibt es ein wissenschaftlich-mathematisches Argument, das verhindert, dass tiefes Lernen jemals eine starke KI hervorbringt? - Nein. Aber es gibt auch kein solches Argument, das dies garantiert.

Andere Fragen untersuchen hier, ob diese hoch entwickelten Kurvenmonteure Erkenntnis- oder Argumentationselemente ausführen können.

Das Totem von drei im Bild der Frage, Sehen, Tun und Vorstellen, ist nicht besonders vollständig, genau oder aufschlussreich.

  • Es gibt mindestens fünf sensorische Paradigmen beim Menschen, nicht eines
  • Milliarden von Jahren gingen den menschlichen Sinnen voraus - Bakterien schon
  • Die Vorstellung ist kein wesentlich höherer Prozess als die Wiedergabe von Szenarien aus Modellen vergangener Erfahrungen mit einer Methode, um festgelegte Funktionen anzuwenden, um sie zu kombinieren und zufällige Mutationen zu injizieren
  • Kreativität kann sich nur im vorherigen Aufzählungspunkt vorstellen, gefolgt von unnötigen Vorstellungsergebnissen mit einigen marktorientierten Qualitätskriterien, so dass die beeindruckenden kreativen Produkte, die sich verkaufen, übrig bleiben

Die höheren Formen sind Wertschätzung, Realitätssinn, der über den Rahmen wissenschaftlicher Messungen hinausgeht, berechtigter Zweifel, Liebe, Opfer für das Wohl anderer oder der Menschheit.

Viele erkennen, dass der aktuelle Stand der KI-Technologie bei weitem nicht in der Nähe der Beschaffung eines Systems liegt, das zuverlässig antworten kann: "Wie kann ich Y verwirklichen?" oder "Wenn ich anders gehandelt habe, tritt X dann immer noch auf?"

Es gibt keinen mathematischen Beweis dafür, dass eine Kombination kleiner Kurvenanpassungselemente die Fähigkeit erreichen kann oder nicht, diese Fragen zu beantworten, wie es ein typischer Mensch kann, hauptsächlich weil es kein ausreichendes Verständnis dafür gibt, was Intelligenz ist oder wie man sie in mathematischen Begriffen definiert.

Es ist auch möglich, dass die menschliche Intelligenz überhaupt nicht existiert, dass Verweise darauf auf der religiösen Überzeugung beruhen, dass wir als Spezies höher sind als andere Spezies. Dass wir bevölkern, konsumieren und ausrotten können, ist eigentlich keine sehr intelligente Vorstellung von Intelligenz.

Die Behauptung, dass menschliche Intelligenz eine Anpassung ist, die uns von anderen Säugetieren unterscheidet, steht im Widerspruch dazu, ob wir uns gut anpassen. Wir wurden nicht getestet. Kommen Sie zum nächsten meteorischen globalen Killer mit einer Schockwelle in der Größenordnung des Meteors des Chicxulub-Kraters, gefolgt von einigen tausend Jahren solaren Winters, und wir werden sehen, ob es sich um unser 160.000-jähriges Bestehen oder das 4.000.000.000-jährige Bestehen von Bakterien handelt erweist sich als nachhaltiger. In der Zeitachse des Lebens hat sich die menschliche Intelligenz als adaptives Merkmal noch nicht als bedeutsam erwiesen.

Was an der KI-Entwicklung klar ist, ist, dass andere Arten von Systemen zusammen mit tiefen Lernenden eine Rolle spielen, basierend auf dem mehrschichtigen Perzeptron-Konzept und Faltungskernen, die ausschließlich Oberflächenmonteure sind.

Q-Learning-Komponenten, auf Aufmerksamkeit basierende Komponenten und Komponenten des Langzeit-Kurzzeitgedächtnisses sind ebenfalls ausschließlich Oberflächenmonteure, jedoch nur, indem die Definition der Oberflächenanpassung erheblich erweitert wird. Sie haben adaptive Eigenschaften und Zustände in Echtzeit, so dass sie vollständig sein können.

Fuzzy-Logik-Container, regelbasierte Systeme, Algorithmen mit Markovian-Eigenschaften und viele andere Komponententypen spielen ebenfalls ihre Rolle und sind überhaupt keine Oberflächenmonteure.

Zusammenfassend gibt es Punkte, die nicht nur auf Plausibilität oder einer ansprechenden intuitiven Qualität beruhen. Viele dieser Autoren bieten jedoch keinen mathematischen Rahmen mit Definitionen, Anwendungen, Lemmas, Theoremen, Beweisen oder sogar Gedankenexperimenten auf formelle Weise geprüft.


1

Es ist ein Paradoxon, aber eine Deep-Learning-Maschine (definiert als NeuralNet-Variante) kann nichts lernen. Es ist eine flexible und konfigurierbare Hardware- / Softwarearchitektur, die parametrisiert werden kann, um viele Probleme zu lösen. Die optimalen Parameter zur Lösung eines Problems werden jedoch von einem externen System erhalten, dh einem Rückausbreitungsalgorithmus.

Das Back-Propagation-Subsystem verwendet herkömmliche Programmierparadigmen, es ist kein neuronales Netz. Diese Tatsache steht in absolutem Gegensatz zum menschlichen Verstand, wo das Lernen und der Gebrauch von Wissen von demselben System (dem Verstand) durchgeführt werden.

Wenn alle wirklich interessanten Dinge außerhalb des NN erledigt werden, ist es schwierig zu behaupten, dass sich ein NN (in jeder Variante) in einem AGI entwickeln kann.

Es ist auch möglich, weitere Unterschiede zu finden. Neuronale Netze sind in ihrer Schnittstelle und ihren Interna stark numerisch. Unter diesem Gesichtspunkt handelt es sich um eine Weiterentwicklung von Support-Vektor-Maschinen.

Zu viele Unterschiede und Einschränkungen, um einen AGI zu erwarten.

Hinweis: Ich bin mit der in der ursprünglichen Frage enthaltenen Auslosung überhaupt nicht einverstanden. "Sehen", "Tun", "Bildgebung" sind absolut falsche Werte. Grundlegende und gebräuchliche Softwarekonzepte werden als "Abstraktion" oder "Programmzustand" (in Turing-Worten) ignoriert. angewandte KI als "vorausgesehen"; und AGI als "freier Wille", "Ziele und Gefühle", ...


4
Ich denke , das Entfernen Rückausbreitung (oder einen beliebigen Teil des Ausbildungsrahmen) aus der Betrachtung, und behauptet , dass der verbleibende Teil ist der „Deep Learning“ Teil ist künstlich, und die Art der Frage auszuweichen. Ich denke, es ist vernünftig anzunehmen, dass OP Deep Learning bedeutet, wie es praktiziert wird, einschließlich der verfügbaren Trainingsprozesse.
Neil Slater

1
@NeilSlater: Wenn wir sagen, dass ein DL eine Art NeuralNet ist (um die Ähnlichkeit mit dem menschlichen Geist und folglich seine mögliche Fähigkeit, eine AGI zu erreichen, zu bemerken), schließen wir den Lernteil aus, der kein NN ist . Wenn wir das Lernsubsystem in die Definition eines DL einbeziehen, dann ist es kein NN, sondern nur konventionelle Programmierung mit der Leistung eines herkömmlichen Programms und hat die gleichen Möglichkeiten, AGI zu erreichen wie jedes andere Programmsystem oder Paradigma.
Pasaba Por Aqui

Das menschliche Gehirn lernt, indem es ausschließlich Eingaben von externen „Systemen“ empfängt und verarbeitet. Die optimalen Parameter zur Lösung von Problemen werden durch Ausprobieren, Anwenden von Regeln und Verarbeiten von Eingaben von externen Systemen erhalten. Das Training beginnt, während sich das Baby noch in der Gebärmutter befindet, und wird danach rund um die Uhr fortgesetzt. Der aktuelle Zustand der KI ist mit ziemlicher Sicherheit nicht mit der Nachahmung des menschlichen Gehirns vergleichbar. Die Behauptung, dass KI nicht lernen kann (oder nicht bereits ähnlich wie das menschliche Gehirn lernt), setzt jedoch voraus, dass das Wissen darüber, wie das menschliche Gehirn „lernt“ und funktioniert, das die Wissenschaft noch nicht kennt.
Dunk
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.