Was wir wissen
Laut einer Seite der Weltbank gibt es heute weltweit rund 200 Millionen Hochschulstudenten, gegenüber 89 Millionen im Jahr 1998. Mindestens 1 von 100 musste als mathematische Voraussetzung einen Beweis für einen Satz entwickeln und lebte mindestens 40 Jahre danach.
Obwohl es mindestens 20 Millionen neuronale Netze gibt, die einen Satz beweisen können, fehlen ihnen Beispiele, die diese Frage bejahen würden. Diese neuronalen Netze sind biologisch, nicht künstlich, und sie haben meistens zuvor bewiesene Theoreme bewiesen, nicht die Collatz-Vermutung oder die Riemann-Vermutung.
Was manche glauben
Diejenigen, die glauben, dass tiefgreifendes Q-Lernen und auf Aufmerksamkeit basierende Geräte durch andere Lernsystemdesigns ergänzt werden, bis die Fähigkeiten des menschlichen Gehirns simuliert und möglicherweise übertroffen sind, würden wahrscheinlich den Satz als eine dieser menschlichen Fähigkeiten beweisen. Diese erklären wahrscheinlich Prädikatenlogik und Inferenz als eine weitere komplexe kognitive Funktion, die in künstlichen Systemen erreicht wird.
Diejenigen, die glauben, dass einige Fähigkeiten in Menschen eingebettet sind und reservierte Fähigkeiten sind, können Prädikatenlogik und Folgerung als für Menschen allein reserviert deklarieren.
Aktueller Stand der Arbeiten
Es gibt keine akademischen Artikel, die die Fähigkeit aufzeigen, selbst die einfachsten Beweise unter Verwendung von Prädikatenlogik und Inferenz zu beweisen. Es ist möglich, dass eine Regierung oder ein privates Unternehmen dabei gewisse Erfolge erzielt hat, diese wurden jedoch nicht bekannt gegeben.
Die Idee, dass künstliche Netzwerke, wenn sie spürbar entwickelt werden, Produktionssysteme, KI-Systeme, die auf Produktionen oder Regeln basieren, in ihren Bereichen mit der größten Wirksamkeit übertreffen könnten, wurde schon früh in der Entwicklung der KI vorgeschlagen. Es war damals und heute umstritten, die Argumente sind jedoch nicht mathematisch, so dass es keinen eindeutigen Hinweis darauf gibt, dass dies unmöglich ist.
Gewiss sind andere kognitive Aspekte des menschlichen Denkens wichtige Ziele der KI-Forschung. Dialog, automatisierte Schulung, Planung, strategische Analyse und Fahrzeugsteuerung sind Aspekte höherer Gedanken, die mehr erfordern, als DQN und aufmerksamkeitsorientierte Netzwerkansätze bieten können. Die Forschungsbemühungen in diesen Bereichen sind jedoch beachtlich und gut finanziert.
Möglicher Ansatz
Die Erforschung logischer kognitiver Fähigkeiten sollte mit Beweisen beginnen, die bereits bekannt sind und die viel einfacher sind als die in der Frage genannten Vermutungen. Zum Beispiel wurde bewiesen, dass die Summe zweier nicht negativer Ganzzahlen eine andere nicht negative Ganzzahl sein muss. In der Prädikatenrechnung kann dies als Zeichenfolge dargestellt werden.
∀ a ∈ C, B ∈ C: s = a + b⟹s ∈ C
Es heißt, dass a und b Mitglieder der Menge der Zählzahlen sind und dass das s, definiert als die Summe der beiden, auch Mitglied der Menge der Zählzahlen sein muss. Sein Beweis kann auch als Folge von Zeichenketten der Prädikatenrechnung erster Ordnung dargestellt werden.
Kein kleines Forschungsprojekt
Ein solches Beispiel mag für jemanden einfach erscheinen, der jahrelange Mathematikkurse belegt und Beweise erstellt hat. Für ein Kind ist es nicht einfach, und es ist sehr schwierig, ein künstliches Netzwerk dazu zu bringen, zu einer Funktion zu konvergieren, die alle Regeln der logischen Folgerung anwendet und Metaregeln enthält, um zu einem Beweis für ein formales System wie die Ganzzahlarithmetik zu gelangen.
Das Aufbauen kompletter Netzwerke wie RNNs hat sicherlich Vorteile gegenüber MLPs (Multilayer Perceptrons). Aufmerksamkeitsbasierte Netzwerke können eine sinnvolle Forschungsoption sein. In den nachstehenden Referenzen sind weitere angegeben.
Für die Forschung wäre eine parallele Rechenplattform erforderlich, da der Eingabevektor Hunderte von KB betragen kann. Die Größe der Beispiele und deren Anzahl ist schwer abzuschätzen, ohne dass ein oder zwei Jahre in den Forschungsprozess einfließen.
Die Definition der Zählzahlen, des Pluszeichens und des Gleichheitszeichens muss zuerst definiert werden, und diese Definitionen und eine Reihe von Axiomen, Postulaten, Lemmas und Korollarien müssen Teil des Eingabebeispiels in der formalen Form sein, wie der Vorschlag sein soll bewiesen, zusammen mit diesem Vorschlag.
Und das ist die Arbeit, um nur ein Beispiel vorzubereiten. Sie brauchen Tausende, um intuitives Wissen über die Inferenzregeln in einem tiefen Netzwerk zu trainieren. (Ich habe das Wort INTUITIV aus theoretischen Gründen gewählt, die mindestens hundert Seiten benötigen, um es gut zu erklären.)
Dies ist kein kleines Projekt, da der Beispieldatensatz mindestens einige tausend Fälle umfassen muss und jeder Fall, auch wenn er eine gewisse Theorie aufweist, so aufgebaut sein muss, dass der Vorschlag perfekt formuliert ist und der erforderliche theoretische Teil ebenfalls vorgestellt wird in perfekter Form am Eingang für jede Trainingsiteration.
Ich vermute, dass ein Team kluger Forscher mit dem entsprechenden Verständnis von tiefen Netzwerken, Konvergenz und Prädikatkalkül etwa zehn Jahre benötigen würde, um ein Netzwerk so zu trainieren, dass es als Reaktion auf einfache mathematische Vorschläge brauchbare Beweise liefert.
Aber es wäre keine kleine Leistung
Für manche mag das absurd erscheinen, aber es wäre das erste Mal, dass jemand einem Computer beigebracht wird, wie man logisch ist. Es bedurfte der Natur, um einem Organismus, Sokrates, den logischen Schluss zu ziehen.
Die Leute gehen davon aus, dass Computer logisch sind, weil ein Computer aus digitalen Schaltkreisen besteht, die logisch sind. Jeder, der sich seit Jahrzehnten mit Softwareentwicklung beschäftigt und dazu neigt, tiefer zu denken als zum Spaß oder für Geld zu hacken, weiß es anders. Auch nach sorgfältiger Programmierung simulieren Computer keine logischen Schlussfolgerungen und können ihr selbst programmiertes Verhalten nicht für einen beliebigen Fehler korrigieren. Tatsächlich besteht der größte Teil der Softwareentwicklung heutzutage aus der Behebung von Fehlern.
Die Simulation des logischen Denkens wäre ein wichtiger Schritt zur Simulation der Erkenntnis und des breiteren Spektrums menschlicher Fähigkeiten.
Verweise
Lernen, neuronale Netze für die Beantwortung von Fragen zu komponieren Jacob Andreas, Marcus Rohrbach, Trevor Darrell und Dan Klein UC, Berkeley 2016
https://arxiv.org/pdf/1601.01705.pdf
Erlernen mehrerer Repräsentationsebenen Geoffrey E. Hinton Institut für Informatik, Universität Toronto 2007
http://www.csri.utoronto.ca/~hinton/absps/ticsdraft.pdf
Neuronale Turingmaschine (Diashow) Autor: Alex Graves, Greg Wayne, Ivo Danihelka Präsentiert von: Tinghui Wang (Steve)
https://eecs.wsu.edu/~cook/aiseminar/papers/steve.pdf
Neuronale Turingmaschinen (Papier) Alex Graves, Greg Wayne, Ivo Danihelka
https://pdfs.semanticscholar.org/c112/6fbffd6b8547a44c58b192b36b08b18299de.pdf
2014
Reinforcement Learning, Neuronale Turingmaschinen Wojciech Zaremba, Ilya Sutskever ICLR-Konferenzbeitrag
https://arxiv.org/pdf/1505.00521.pdf?utm_content=buffer2aaa3&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer
2016
Dynamische neuronale Turingmaschine mit kontinuierlichen und diskreten Adressierungsschemata Caglar Gulcehre1, Sarath Chandar1, Kyunghyun Cho2, Yoshua Bengio1
https://arxiv.org/pdf/1607.00036.pdf
2017
Ein online selbstkonstruierendes neuronales Fuzzy-, Inferenznetzwerk und seine Anwendungen Chia-Feng Juang- und Chin-Teng Lin IEEE-Transaktionen auf Fuzzy-Systemen, v6, n1 1998
https://ir.nctu.edu.tw/bitstream/11536/ 32809/1 / 000072774800002.pdf
Gated Graph Sequence Neuronale Netze Yujia Li und Richard Zemel ICLR Konferenzpapier 2016
https://arxiv.org/pdf/1511.05493.pdf
Maschinen bauen, die wie Menschen lernen und denken Brenden M. Lake, Tomer D. Ullman, Joshua B. Tenenbaum und Samuel J. Gershman Verhaltens- und Gehirnwissenschaften 2016
https://arxiv.org/pdf/1604.00289.pdf
Kontextabhängige vortrainierte tiefe neuronale Netze für die Spracherkennung mit großem Wortschatz George E. Dahl, Dong Yu, Li Deng und Alex Acero IEEE-Transaktionen für Audio-, Sprach- und Sprachverarbeitung 2012
https://s3.amazonaws.com/ academia.edu.documents / 34691735 / dbn4lvcsr-transaslp.pdf? AWSAccessKeyId = AKIAIWOWYYGZ2Y53UL3A & Expires = 1534211789 & Signature = 33QcFP0JGFeA
Einbettung von Entitäten und Beziehungen für Lernen und Inferenz in Wissensdatenbanken Bishan Yang1, Wen-tau Yih2, Xiaodong He2, Jianfeng Gao2 und Li Deng2 ICLR-Konferenzpapier 2015
https://arxiv.org/pdf/1412.6575.pdf
Ein schneller Lernalgorithmus für Deep Belief Nets Geoffrey E. Hinton, Simon Osindero, Yee-Whye Teh (mitgeteilt von Yann Le Cun) Neural Computation 18 2006
http://axon.cs.byu.edu/Dan/778/papers/Deep % 20Networks / hinton1 * .pdf
FINN: Ein Framework für schnelle, skalierbare binarisierte Inferenz neuronaler Netze Yaman Umuroglu et al., 2016
https://arxiv.org/pdf/1612.07119.pdf
Vom maschinellen Lernen zum maschinellen Denken Léon Bottou 08.02.2011
https://arxiv.org/pdf/1102.1808.pdf
Deep Learning Yann LeCun1,2, Yoshua Bengio3 & Geoffrey Hinton4,5 Nature Vol. 521 2015
https://www.evl.uic.edu/creativecoding/courses/cs523/slides/week3/DeepLearning_LeCun.pdf