Ist topologische Raffinesse zur Förderung der KI notwendig? [geschlossen]


10

Der aktuelle Trend des maschinellen Lernens wird von einigen neuen KI-Disziplinen dahingehend interpretiert, dass MLPs, CNNs und RNNs menschliche Intelligenz aufweisen können. Es ist wahr, dass diese orthogonalen Strukturen, die aus dem ursprünglichen Perzeptron-Design abgeleitet wurden, Merkmale kategorisieren, extrahieren, in Echtzeit anpassen und lernen können, Objekte in Bildern oder Wörter in Sprache zu erkennen.

Kombinationen dieser künstlichen Netzwerke können Entwurfs- und Steuerungsmuster nachahmen. Selbst die Annäherung komplexerer Funktionen wie Kognition oder Dialog wird mit zustandsbehafteten Netzwerken wie RNNs als theoretisch möglich angesehen, da sie vollständig sind.

Diese Frage dreht sich darum, ob der Eindruck, der durch den Erfolg tiefer Netzwerke auf der Grundlage rein orthogonaler Erweiterungen des ursprünglichen Perzeptron-Designs entsteht, die Kreativität einschränkt.

Wie realistisch ist es anzunehmen, dass das Ändern der Dimensionen von Arrays und Matrizen, die in den meisten Programmiersprachen praktisch sind, von künstlichen Netzwerken zu künstlichen Gehirnen führt?

Die Netzwerktiefe, die erforderlich ist, damit ein Computer lernt, einen Tanz zu choreografieren oder einen komplexen Beweis zu entwickeln, würde wahrscheinlich nicht konvergieren, selbst wenn ein Jahr lang hundert Racks dedizierter und fortschrittlicher Hardware laufen würden. Lokale Minima in der Fehleroberfläche und die Gradientensättigung würden die Läufe plagen und die Konvergenz unrealistisch machen.

Der Hauptgrund dafür, dass Orthogonalität im MLP-, CNN- und RNN-Design zu finden ist, liegt darin, dass Schleifen, die für die Array-Iteration verwendet werden, zu einfachen Tests und Rückwärtssprüngen in der Maschinensprache kompiliert werden. Und diese Tatsache betrifft alle höheren Sprachen von FORTRAN und C bis Java und Python.

Die natürlichste Datenstruktur auf Maschinenebene für triviale Schleifen sind Arrays. Verschachtelungsschleifen bieten die gleiche direkte triviale Ausrichtung mit mehrdimensionalen Arrays. Diese bilden die mathematischen Strukturen von Vektoren, Matrizen, Würfeln, Hyperwürfeln und deren Verallgemeinerung ab: Tensoren.

Obwohl graphbasierte Bibliotheken und objektorientierte Datenbanken seit Jahrzehnten existieren und die Verwendung der Rekursion zum Durchlaufen von Hierarchien in den meisten Lehrplänen für Softwareentwicklung behandelt wird, halten zwei Tatsachen den allgemeinen Trend von weniger eingeschränkten Topologien ab.

  • Die Graphentheorie (durch Kanten verbundene Eckpunkte) ist in den Lehrplänen der Informatik nicht konsistent enthalten.
  • Viele Leute, die Programme schreiben, haben nur mit Strukturen gearbeitet, die in ihre Lieblingssprachen eingebaut sind, wie Arrays, geordnete Listen, Mengen und Karten.

Die Struktur des Gehirns orientiert sich nicht an kartesischen Topologien 1 wie Vektoren oder Matrizen. Die neuronalen Netze in der Biologie sind nicht orthogonal. Weder ihre physikalische Ausrichtung noch die grafischen Darstellungen ihrer Signalwege sind kastenförmig. Die Gehirnstruktur wird natürlich nicht in Winkeln von 90 Grad dargestellt.

Reale neuronale Schaltkreise können nicht direkt in kartesischen Formen dargestellt werden. Sie passen auch nicht direkt in rekursive Hierarchien. Dies liegt an vier charakteristischen Merkmalen.

  1. Parallelität im Geist erfolgt im Trend nicht durch Iteration - Die Neuronen in scheinbar parallelen Strukturen sind nicht identisch und werden mit Ausnahme des scheinbaren Musters hergestellt.
  2. Zyklen erscheinen in der Struktur - Gruppen von Neuronen zeigen nicht alle in eine einzige Richtung. In dem gerichteten Diagramm, das viele Netzwerke darstellt, sind Zyklen vorhanden. Es gibt viele Schaltkreise, in denen ein Vorfahr in Signalrichtung auch ein Nachkomme ist. Dies ist wie die stabilisierende Rückkopplung in analogen Schaltungen.
  3. Neuronale Strukturen, die nicht parallel sind, sind auch nicht immer orthogonal. Wenn sich ein Winkel von neunzig Grad bildet, ist dies zufällig und kein Entwurf.
  4. Die neuronale Struktur ist nicht statisch - Neuroplastizität ist das Phänomen, das beobachtet wird, wenn ein Axon oder Dendrit in neue Richtungen wachsen kann, die nicht auf neunzig Grad beschränkt sind. Zellapoptose kann ein Neuron eliminieren. Ein neues Neuron kann sich bilden.

Parallelistische und dennoch komplexe neuronale Topologie

Das Gehirn hat fast nichts, was auf natürliche Weise in eine orthogonale digitale Schaltungsstruktur passt, wie einen Vektor, eine Matrix oder einen Registerwürfel oder zusammenhängende Speicheradressen. Ihre Darstellung in Silizium und die Merkmalsanforderungen, die sie an höhere Programmiersprachen stellen, unterscheiden sich grundlegend von den mehrdimensionalen Arrays und Schleifen der grundlegenden Algebra und der analytischen Geometrie.

Identifizierung neuronaler Schaltkreise

Das Gehirn ist mit einzigartigen topologischen 1 Strukturen aufgebaut, die eine ausgefeilte Signalausbreitung realisieren. Sie sind nicht durch kartesische Koordinatensysteme oder Gitter eingeschränkt. Feedback ist verschachtelt und nicht orthogonal. Sie haben chemische und elektrische Gleichgewichte, die ein Gleichgewicht zwischen höherem und niedrigerem Denken, Motivation und Aufmerksamkeit bilden.

Allgemeine neuronale Topologie

Ist , dass topologische 1 Raffinesse notwendig oder lediglich ein Nebenprodukt, wie DNA - Konstrukte einen Vektor, matrix, Würfel oder Hyper-Würfel?

Mit fortschreitender Gehirnforschung wird es zunehmend unwahrscheinlich, dass Gehirnstrukturen effizient in orthogonale Signalwege umgewandelt werden können. Es ist unwahrscheinlich, dass die benötigten Signalstrukturen homogen typisierte Arrays sind. Es ist sogar möglich, dass stochastische oder chaotische Verarbeitungsstrukturen einen Vorteil für die KI-Entwicklung besitzen.

Simplexe nicht orthogonal

Das Gehirn des topologisch 1 ausgefeilten Funktionen kann ein Katalysator sein oder sogar eine Notwendigkeit für die Entstehung von menschlichen Formen des Denkens. Wenn wir uns zum Ziel gesetzt haben, eine Konvergenz über Hunderte von Perzeptronschichten hinweg zu erreichen, können wir dies nur manchmal zum Funktionieren bringen. Sind wir in irgendeiner Weise gefangen von den konzeptionellen Einschränkungen, die mit Descartes begannen?

Können wir diesen Einschränkungen entkommen, indem wir einfach auf die Programmierfreundlichkeit orthogonaler Strukturen verzichten? Mehrere Forscher arbeiten daran, neue Orientierungen beim Design von VLSI-Chips zu entdecken. Möglicherweise müssen neue Arten von Programmiersprachen oder neue Funktionen für vorhandene entwickelt werden, um die Beschreibung der mentalen Funktion im Code zu erleichtern.

Einige haben vorgeschlagen, neue Formen der Mathematik aufzuzeigen, aber Leonhard Euler (Grafiken), Gustav Kirchhoff (Netzwerke), Bernhard Riemann (Mannigfaltigkeiten), Henri Poincaré (Topologie) und Andrey Markov (Aktionsgraphen) haben bereits einen signifikanten theoretischen Rahmen geschaffen ), Richard Hook Richens (Computerlinguistik) und andere, um signifikante KI-Fortschritte zu unterstützen, bevor die Mathematik weiter ausgebaut werden muss.

Ist der nächste Schritt in der KI-Entwicklung die topologische Raffinesse?


Fußnoten

[1] Diese Frage verwendet nur die Worttopologie, um sich auf die langjährige mathematische Definition des Wortes zu beziehen. Obwohl der Begriff durch einen aufkommenden Jargon verzerrt wurde, ist in dieser Frage keine dieser Verzerrungen gemeint. Zu den Verzerrungen gehören (a) das Aufrufen eines Arrays von Schichtbreiten der Topologie des Netzwerks und (b) das Aufrufen der Textur einer Oberfläche als Topologie, wenn der richtige Begriff topoGRAPHY wäre. Solche Verzerrungen verwechseln die Kommunikation von Ideen wie den in dieser Frage beschriebenen, die nichts mit (a) oder (b) zu tun haben.


Verweise

In Hohlräume gebundene Cliquen von Neuronen stellen eine fehlende Verbindung zwischen Struktur- und Funktionsgrenzen in der Computational Neuroscience her, 12. Juni 2017, Michael W. Reimann et. al. https://www.frontiersin.org/articles/10.3389/fncom.2017.00048/full , https://doi.org/10.3389/fncom.2017.00048

Ein sich selbst konstruierendes neuronales Fuzzy-Inferenznetzwerk und seine Anwendungen, Chia-Feng Juang und Chin-Teng Lin, IEEE-Transaktionen auf Fuzzy-Systemen, v6, n1, 1998, https://ir.nctu.edu.tw/ bitstream / 11536/32809/1/000072774800002.pdf

Neuronale Netze mit Gated Graph Sequence Yujia Li und Richard Zemel, ICLR-Konferenzpapier, 2016, https://arxiv.org/pdf/1511.05493.pdf

Baumaschinen, die wie Menschen lernen und denken, Brenden M. Lake, Tomer D. Ullman, Joshua B. Tenenbaum und Samuel J. Gershman, Verhaltens- und Gehirnwissenschaften, 2016, https://arxiv.org/pdf/1604.00289.pdf

Lernen, neuronale Netze zur Beantwortung von Fragen zusammenzustellen, Jacob Andreas, Marcus Rohrbach, Trevor Darrell und Dan Klein, UC Berkeley, 2016, https://arxiv.org/pdf/1601.01705.pdf

Lernen mehrerer Repräsentationsebenen Geoffrey E. Hinton, Institut für Informatik, Universität Toronto, 2007, http://www.csri.utoronto.ca/~hinton/absps/ticsdraft.pdf

Kontextabhängige vorgefertigte tiefe neuronale Netze für die Spracherkennung mit großem Wortschatz, George E. Dahl, Dong Yu, Li Deng und Alex Acero, IEEE-Transaktionen zu Audio-, Sprach- und Sprachverarbeitung 2012, https: //s3.amazonaws .com /ademia.edu.documents / 34691735 / dbn4lvcsr-transaslp.pdf?

Einbetten von Entitäten und Beziehungen für Lernen und Inferenz in Wissensbasen, Bishan Yang1, Wen-tau Yih2, Xiaodong He2, Jianfeng Gao2 und Li Deng2, ICLR-Konferenzpapier, 2015, https://arxiv.org/pdf/1412.6575.pdf

Ein schneller Lernalgorithmus für Netze mit tiefem Glauben, Geoffrey E. Hinton, Simon Osindero, Yee-Whye Teh (übermittelt von Yann Le Cun), Neural Computation 18, 2006, http://axon.cs.byu.edu/Dan/778 / papers / Deep% 20Networks / hinton1 * .pdf

FINN: Ein Framework für schnelle, skalierbare binarisierte neuronale Netzwerkinferenz Yaman Umuroglu et al., 2016, https://arxiv.org/pdf/1612.07119.pdf

Vom maschinellen Lernen zum maschinellen Denken, Léon Bottou, 08.02.2011, https://arxiv.org/pdf/1102.1808.pdf

Fortschritte in der Gehirnforschung, Neurowissenschaften: Vom Molekularen zum Kognitiven, Kapitel 15: Chemische Übertragung im Gehirn: Homöostatische Regulation und ihre funktionellen Auswirkungen, Floyd E. Bloom (Herausgeber), 1994, https://doi.org/10.1016/ S0079-6123 (08) 60776-1

Neural Turing Machine (Diashow), Autor: Alex Graves, Greg Wayne, Ivo Danihelka, Präsentiert von: Tinghui Wang (Steve), https://eecs.wsu.edu/~cook/aiseminar/papers/steve.pdf

Neuronale Turingmaschinen (Papier), Alex Graves, Greg Wayne, Ivo Danihelka, 2014, https://pdfs.semanticscholar.org/c112/6fbffd6b8547a44c58b192b36b08b18299de.pdf

Verstärkungslernen, Neuronale Turingmaschinen, Wojciech Zaremba, Ilya Sutskever, ICLR-Konferenzpapier, 2016, https://arxiv.org/pdf/1505.00521.pdf?utm_content=buffer2aaa3&utm_medium=social&utm_sourceb_

Dynamische neuronale Turingmaschine mit kontinuierlichen und diskreten Adressierungsschemata, Caglar Gulcehre1, Sarath Chandar1, Kyunghyun Cho2, Yoshua Bengio1, 2017, https://arxiv.org/pdf/1607.00036.pdf

Deep Learning, Yann LeCun, Yoshua Bengio3 und Geoffrey Hinton, Nature, Band 521, 2015, https://www.evl.uic.edu/creativecoding/courses/cs523/slides/week3/DeepLearning_LeCun.pdf

Kontextabhängige vorgefertigte tiefe neuronale Netze für die Spracherkennung mit großem Wortschatz, IEEE-Transaktionen zu Audio-, Sprach- und Sprachverarbeitung, Band 20, Nr. 1 George E. Dahl, Dong Yu, Li Deng und Alex Acero, 2012, https : //www.cs.toronto.edu/~gdahl/papers/DBN4LVCSR-TransASLP.pdf

Die Cliquentopologie zeigt die intrinsische geometrische Struktur in neuronalen Korrelationen, Chad Giusti, Eva Pastalkova, Carina Curto, Vladimir Itskov, William Bialek PNAS, 2015, https://doi.org/10.1073/pnas.1506407112 , http: //www.pnas. org / content / 112/44 / 13455.full? utm_content = bufferb00a4 & utm_medium = social & utm_source = twitter.com & utm_campaign = buffer

UCL, London Neurological Newsletter, Juli 2018 Barbara Kramarz (Herausgeberin), http://www.ucl.ac.uk/functional-gene-annotation/neurological/newsletter/Issue17


2
Ich habe keine gute Antwort darauf, aber es werden parallele Anstrengungen unternommen, um die Strukturen von Bayes'schen oder Casual-Netzwerken aus Daten zu lernen. Es wird allgemein angenommen, dass dies schwierig und möglicherweise rechenintensiv ist. Ich bin mir nicht sicher, ob die aktuellen Techniken gut sind, aber es scheint eine vielversprechende Richtung zu sein, wenn die grundlegenden Probleme gelöst werden könnten. Ich denke, Peter Van Beeks Arbeit könnte ein guter Ausgangspunkt sein, um darüber zu lesen: cs.uwaterloo.ca/~vanbeek/Research/research_ml.html
John Doucette

2
Ich habe kürzlich ein wenig von Böhms Buch über Quantenmechanik gelesen und eines der ersten Dinge, die er definiert, ist die Orthogonalität in Bezug auf Eigenvektoren . (Siehe auch dieses Wiki zur Verwendung in der Biologie .) Ich versuche immer noch, mich mit den Konzepten zu beschäftigen, aber es scheint, dass Orthogonalität verallgemeinert werden kann und nicht auf die euklidische Geometrie beschränkt ist.
DukeZhou

Die Graphentheorie ist Teil einer CS-Ausbildung, aber nicht aus Gründen, die Sie sich vorstellen können ... Ich denke, sie hat hauptsächlich mit einer effizienten Weiterleitung von Informationen zwischen Netzwerken zu tun
kc sayz 'kc sayz'

1
@DukeZhou alles, um etwas einfacher zu machen ... Sie machen sogar die Zeit dt orthogonal. Wie macht man die Zeit orthogonal? Nur Mathematiker können antworten
DuttaA

Antworten:


3

Ja definitiv.

KI-Software sollte nicht übermäßig an Tensoren gebunden sein. Die natürliche Darstellung eines Netzwerks ist ein Netzwerk, kein Array.

Mathe gut geeignet für KI

Scheitelpunkte, die durch gerichtete Kanten verbunden sind, sind das nächste mathematische Äquivalent zum funktionierenden Nervensystem. Selbst die Steuerschaltung einer CPU, FPU oder GPU ist ein komplexes Netzwerk von Gates, kein Gitter wie RAM.

Die Endpunkte von Verbindungen sind auch nicht die einzigen signifikanten Eigenschaften einer Kante. Die Länge der Kanten in neuronalen Schaltkreisen ist definitiv Teil des funktionierenden Designs. Das bedeutet, dass das Layout einer künstlich intelligenten Schaltung in einem Quanten- oder Nahquantencomputer bestimmen kann, ob sie gut funktioniert. Der NIH-Artikel Effekt der Topologie und verzögerten Interaktionen bei der Synchronisation neuronaler Netzwerke erklärt, warum. Und dieses Bild und sein Quellartikel bestätigen.

Geben Sie hier die Bildbeschreibung ein

Growth Connectomics - Die Organisation und Reorganisation von Hirnnetzwerken während einer normalen und abnormalen Entwicklung

Schädel-Hirn-Trauma

Diejenigen, die eine traumatische Hirnverletzung haben, lernen Aufgaben neu, die durch die Verletzung gestört wurden. Neuroplastizität führt zu einer physischen Änderung der Netzwerkstruktur und der Schaltkreise um den beschädigten Bereich, die dazu beiträgt, die aufgrund der Verletzung verlorenen Fähigkeiten wiederzuerlangen.

Neurologen glauben, dass zuerst Änderungen an den Axonen, Dendriten und Synapsen auftreten, gefolgt von Änderungen an den Interna der verbundenen Neuronen und der Chemie an den Synopsen, die alle zusammenarbeiten, um die Funktion wiederherzustellen, aber die Funktion wird nie vollständig wiederhergestellt. Es gibt immer eine Signatur der Verletzung im Verhalten.

Das bedeutet, dass im Gehirn die graue Substanz, die bestimmte Funktionen übernimmt, eine Rolle spielt.

Topologie in AI

Ich stimme zu, dass Leute den Begriff Topologie verwenden, ohne zu wissen, was es ist.

Die sieben Brücken von Königsberg mögen das erste bekannte Problem in der Topologie sein, und Poincaré hat die Idee der Topologie auf den N-Raum ausgedehnt, aber AF Möbius und Felix Klein haben die Konstruktionen geschaffen, die die Idee von 2D- und 3D-Objekten mit nur einer Seite machten oder Oberfläche.

Möbiusband

Möbiusband

Klein Flasche

Klein Flasche

Probleme der Illustration vs. Probleme im wirklichen Leben

Unten sehen Sie die Konzeptillustration von Eulers berühmten Sieben Brücken von Königsberg. Ziel ist es, alle sieben genau einmal zu überqueren. Es ist ein Problem, das zeigt, dass Topologien Eigenschaften haben, die durch Ausprobieren jeder Möglichkeit oder durch Anwenden eines mathematischen Beweises bestimmt werden können.

Eulers Brücken

Die Topologie dieses und anderer Brückenprobleme kann in einem Tensor (insbesondere einer Matrix) dargestellt werden, und Algorithmen können verwendet werden, um das Problem mit Brute-Force-Angriffen anzugreifen. Produktionsregelsysteme können Eigenschaften aus dem Tensor ableiten, und tiefe Netzwerke, die mit zufällig erzeugten Abfolgen von Kurven gespeist werden, können lernen, ob das Ziel oder Ziel erreicht werden kann, und eine Navigationssequenz, wenn dies möglich ist, indem sie die Informationen im Tensor verwenden und das Ergebnis in einem anderen belassen Tensor.

Hier ist einer der eigentlichen Wendepunkte in Königsberg.

Königsberg an einer Euler-Wende

Um zu entscheiden, wohin und in welche Richtung gedreht werden soll, ist derzeit ein menschliches Gehirn erforderlich, auch wenn dem Computer eine Karte zur Verfügung steht. Das Bild könnte theoretisch in einem Tensor von einem Computer verarbeitet werden, und es könnte theoretisch möglich sein, die Bedeutung der angezeigten Objekte abzuleiten und sie in einem anderen Tensor zu platzieren, aber so funktioniert das visuelle System der Tiere nicht und so funktioniert es nicht Erkenntnis funktioniert.

Es ist einfach nicht die natürlich abgestimmte Architektur für die Datenspeicherung dieser Art von Informationen. Die Tensorarithmetik ist auch nicht das natürlich angepasste Rechenmodell.

Die Netzwerke und Berechnungsalgorithmen, die am besten funktionieren, weisen eine Struktur auf, die sich stark von der zum Speichern und Verarbeiten von Tensoren verwendeten unterscheidet. Die Netzwerke von Vision und Entscheidung werden physisch, syntaktisch, semantisch und kognitiv als Netzwerke verkörpert.

Kritik der Traditionen des Informatikunterrichts

Die Mathematik scheint nicht der Engpass in der Entwicklung der KI zu sein. Es ist ein Bildungsprodukt. Es scheint fast eine gute Idee zu sein, Anfängern in den ersten Jahren des Informatikunterrichts nicht zu erlauben, mit Arrays oder für Schleifen zu schummeln. Selbst die Diskussion von Arrays, Tensoren und Schleifen könnte die Fähigkeit des Schülers beeinträchtigen, transzendenter zu denken.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.