Wie sind künstliche neuronale Netze und biologische neuronale Netze ähnlich und unterschiedlich?


16

Ich habe mehrfach gehört, dass "Neuronale Netze die beste Annäherung sind, die wir zum Modellieren des menschlichen Gehirns haben", und ich denke, es ist allgemein bekannt, dass Neuronale Netze unserem Gehirn nachempfunden sind.

Ich vermute sehr, dass dieses Modell vereinfacht wurde, aber wie viel?

Inwiefern unterscheidet sich das Vanille-NN von dem, was wir über das menschliche Gehirn wissen? Wissen wir überhaupt?


1
Gute Frage. Vieles, was gesagt werden kann, wird hier gesagt: psychology.stackexchange.com/questions/7880/…
Andrew Butler

1
Ich dachte, dies sollte eine Frage sein, die bei ai.SE beantwortet wurde. Ich bin auch neugierig!
Andreas Storvik Strauman

Künstliche Neuronen und biologische Neuronen sind sehr ähnlich. Die Form ihrer Verbindungen ist ebenfalls ziemlich ähnlich, obwohl biologische Neuronen in ihrer Wechselwirkung viele Komplikationen aufweisen, die weitgehend unbekannt zu sein scheinen. Die Verwendung dieser Neuronen unterscheidet sich jedoch drastisch, das heißt, der Grund, warum sie zu Netzwerken zusammengefasst und eingesetzt werden. ANNs werden verwendet, um Funktionen zu approximieren und damit Probleme zu lösen. Während nur Gott weiß, warum BNNs so sind, wie sie sind und wozu sie dienen. Also, keine sehr interessante Frage, denke ich ...
Evgeniy

Antworten:


10

Wie sich künstliche neuronale Netze (ANNs) von den biologischen neuronalen Netzen (BNNs) unterscheiden, hängt davon ab, wonach Sie suchen. Wir alle wissen, dass die ANNs von den biologischen inspiriert sind.
Strukturelle Unterschiede: Im Allgemeinen besteht ein neuronales Netzwerk aus vier Komponenten:
Bildbeschreibung hier eingeben

  • Neuronen
  • Topologie: der Konnektivitätspfad zwischen Neuronen
  • Gewichte
  • Lernalgorithmus

Im Falle eines künstlichen neuronalen Netzes werden der Anfangszustand und die Gewichte zufällig zugewiesen . Während für biologische neuronale Netze die Stärken der Verbindungen zwischen Neuronen und die Struktur der Verbindungen nicht zufällig beginnen. Der Ausgangszustand ist genetisch bedingt und das Nebenprodukt der Evolution .
In BNN kommt das Lernen von den Verbindungen zwischen unzähligen Neuronen im Gehirn. Diese Verbindungen ändern die Konfiguration, wenn das Gehirn neue Reize erfährt . Die Änderungen führen zu neuen Verbindungen, zur Stärkung bestehender Verbindungen und zum Entfernen alter und nicht verwendeter Verbindungen .
ANNs werden von Grund auf mit einer festen Topologie trainiert(Beachten Sie die Topologieänderungen bei BNNs.) Dies hängt vom zu lösenden Problem ab. Der aktuelle Mechanismus ändert die Topologie der ANN nicht und die Gewichte werden zufällig initialisiert und über einen Optimierungsalgorithmus angepasst.

Ein weiterer Kontrast besteht in der Anzahl der Neuronen im Netzwerk. Eine typische ANN besteht aus Hunderten oder vielleicht Tausenden von Neuronen. Das biologische neuronale Netzwerk des menschlichen Gehirns besteht aus Milliarden . Diese Anzahl variiert von Tier zu Tier.
Mehr finden Sie hier und hier .


1
Sind die Verbindungsstärken genetisch bedingt? Bist du dir da sicher?
DuttaA

2
Zunächst werden die Verbindungsstärken eines Neugeborenen genetisch bestimmt. Danach verändern sie sich meist aufgrund äußerer Reize.
Ugnes

2
Künstliche neuronale Netze sind nicht auf feste Topologien beschränkt (siehe NEAT, TWEANN usw.)
Andrew Butler

1
Eine ANN zur Bilderkennung hat definitiv viel mehr als nur Tausende von Neuronen. Wahrscheinlich viele Millionen.
Maaartinus

Ich schrieb die Antwort auf der Grundlage der heute gefundenen allgemeinen ANNs, ohne die besten ANNs zu berücksichtigen. Mit der Verbesserung der Technologie verbessern sich auch die ANNs. Annäherung an BNNs. Vielen Dank, Andrew Butler und Maaartinus, um diese zu erwähnen.
Ugnes

5

Sie sind nicht nah, nicht mehr!

[Künstliche] Neuronale Netze, vage inspiriert von den Verbindungen, die wir zuvor zwischen den Neuronen eines Gehirns beobachtet haben. Anfangs bestand wahrscheinlich die Absicht, ANN zu entwickeln, um biologische Gehirne anzunähern. Die modernen funktionierenden ANNs, deren Anwendungen wir für verschiedene Aufgaben sehen, sind jedoch nicht dafür ausgelegt, uns ein Funktionsmodell eines tierischen Gehirns zu liefern. Soweit ich weiß, gibt es keine Studie, die behauptet, sie hätten etwas Neues in einem biologischen Gehirn gefunden, indem sie die Zusammenhänge und Gewichtsverteilungen von beispielsweise einem CNN- oder RNN-Modell untersucht hätten.


LOL. Genau. Das eine, was sie gemeinsam haben, ist das hier. Sie sind Schaltkreise im abstraktesten Sinne des Wortes. Es kann noch eine andere Sache geben. Die Natur hat ein paar Sachen ausprobiert und wir sind aufgetaucht. Dann haben wir ein paar Sachen ausprobiert und es entstanden XNNs (wobei X eines von A, C oder N ist). Beide Netze sind das Ergebnis einer Vielzahl von Ausfällen.
FauChristian

3

Die allgemeine Aussage, dass künstliche neuronale Netze von der neuronalen Struktur des Gehirns inspiriert sind, ist nur teilweise richtig.

Es ist wahr, dass Norbert Wiener, Claude Shannon, John von Neuman und andere den Weg zur praktischen KI begannen, indem sie das entwickelten, was sie damals als elektronisches Gehirn bezeichneten. Es ist auch wahr

  • Künstliche Netzwerke haben Funktionen, die als Aktivierungen bezeichnet werden.
  • Sind in vielen Beziehungen wie biologische Neuronen und verdrahtet
  • Sind darauf ausgelegt, ein optimales Verhalten zu erlernen,

aber das ist das Ausmaß der Ähnlichkeit. Zellen in künstlichen Netzwerken wie MLPs (Multilayer Perceptrons) oder RNN (Recurrent Neural Networks) sind nicht wie Zellen in Hirnnetzwerken.

Das Perzeptron, der erste Softwarestich auf Arrays von Dingen, die aktiviert werden, war kein Array von Neuronen. Es handelte sich um die Anwendung grundlegender Rückkopplungen mit Gradienten, die seit der mathematischen Modellierung von James Watt durch Gauß in der Technik weit verbreitet waren. Die sukzessive Approximation, ein seit Jahrhunderten verwendetes Prinzip, wurde verwendet, um eine Dämpfungsmatrix schrittweise zu aktualisieren. Die Matrix wurde mit dem Vektor multipliziert, der eine Anordnung identischer Aktivierungsfunktionen speist, um eine Ausgabe zu erzeugen. Das ist es.

Die Projektion in einer zweiten Dimension auf eine mehrschichtige Topologie wurde durch die Erkenntnis ermöglicht, dass das Jacobi-Signal verwendet werden kann, um ein Korrektursignal zu erzeugen, das, wenn es als negative Rückkopplung auf die Schichten geeignet verteilt wird, die Dämpfungsmatrix einer Sequenz von abstimmen kann Perceptrons und das Netzwerk als Ganzes würden zu einem zufriedenstellenden Verhalten konvergieren. In der Reihenfolge der Perzeptrone wird jedes Element als Schicht bezeichnet. Der Rückkopplungsmechanismus wird nun als Rückübertragung bezeichnet.

Die zur Korrektur des Netzwerks verwendete Mathematik wird als Gradientenabstieg bezeichnet, da sie einem dehydrierten Blinden gleicht, der das Gefälle des Geländes verwendet, um Wasser zu finden, und die damit verbundenen Probleme sind ähnlich. Möglicherweise findet er ein lokales Minimum (Tiefpunkt), bevor er frisches Wasser findet und sich eher dem Tod als der Flüssigkeitszufuhr nähert.

Bei den neueren Topologien handelt es sich um Ergänzungen bereits vorhandener Faltungsarbeiten, die bei der digitalen Bildwiederherstellung, Postsortierung und Grafikanwendungen zum Erstellen der CNN-Topologiefamilie und der genialen Verwendung eines chemischen Gleichgewichts aus der Chemie des ersten Jahres zum Kombinieren von Optimierungskriterien verwendet werden die GAN-Familie von Topologien.

Deep ist in den meisten KI-Kontexten einfach ein Synonym für zahlreiche. Dies führt manchmal zu Komplexität in der Topologie höherer Ebenen (oberhalb der Vektormatrixprodukte, der Aktivierungen und der Faltungen).

Diejenigen, die wissen, wie unterschiedlich diese tiefen Netzwerke von denen sind, die Neurowissenschaftler vor Jahrzehnten im Gehirngewebe von Säugetieren entdeckt haben, forschen derzeit aktiv. Heutzutage werden weitere Unterscheidungsmerkmale entdeckt, da die Lernschaltungen und die Neurochemie im Gehirn aus genomischer Sicht untersucht werden.

  • Neuronale Plastizität ... Änderung der Schaltungstopologie aufgrund von Dendriten- und Axiomenwachstum, Tod, Umleitung und anderem Morphing
  • Topologische Komplexität ... eine große Anzahl von Axiomen kreuzen sich ohne Wechselwirkung und sind mit größter Wahrscheinlichkeit bewusst vor Übersprechen (unabhängig) geschützt, da es nachteilig wäre, sie verbinden zu lassen [Anmerkung 1]
  • Chemische Signale ... Säugetiergehirne haben Dutzende von Neurotransmitter- und Neuroregulationsverbindungen, die regionale Auswirkungen auf die Schaltkreise haben [Anmerkung 2]
  • Organellen ... lebende Zellen haben viele Unterstrukturen und es ist bekannt, dass verschiedene Typen komplexe Beziehungen zur Signalübertragung in Neuronen haben
  • Völlig andere Form der Aktivierung ... Aktivierungen in herkömmlichen künstlichen neuronalen Netzen sind einfach Funktionen mit Ordnungsskalaren für Reichweite und Domäne ... Säugetierneuronen arbeiten als Funktion sowohl der Amplitude als auch der relativen zeitlichen Nähe eingehender Signale [Anmerkung 3].

[1] Die Topologie ist ironischerweise sowohl eine Teilmenge der Architektur (in den Bereichen Gebäudedesign, Netzwerkbereitstellung, WWW-Analyse und semantische Netzwerke) als auch viel mehr als die Architektur das radikale Zentrum beider KI Mathematik und effektive Aktualisierung in Steuerungssystemen

[2] Die Rolle der Chemie kann für das Erlernen von sozialem und reproduktivem Verhalten von entscheidender Bedeutung sein, das mit der Verbreitung von DNA-Informationen zusammenhängt und das Lernen auf der Ebene eines Ökosystems und des Gehirns auf komplexe Weise verknüpft. Darüber hinaus teilt das Langzeit- und Kurzzeitlernen das Lernen des Gehirns in zwei verschiedene Fähigkeiten.

[3] Der Einfluss des Timings eingehender Signale auf die Aktivierung biologischer Neuronen ist bis zu einem gewissen Grad bekannt, kann sich jedoch weitaus stärker auswirken als die Ausgabe von Neuronen. Es kann sich auch auf die Plaktizität und Chemie auswirken, und die Organellen können dabei eine Rolle spielen.

Zusammenfassung

Was Bibliotheken für maschinelles Lernen tun, simuliert das menschliche Gehirn genauso wie Barbie- und Ken-Puppen ein echtes Paar.

Dennoch ergeben sich bemerkenswerte Dinge im Bereich des tiefen Lernens, und es würde mich nicht überraschen, wenn autonome Fahrzeuge in unseren Lebenszeiten völlig autonom werden. Ich würde auch keinem Studenten empfehlen, Entwickler zu werden. Computer werden wahrscheinlich viel besser als Menschen und Größenordnungen schneller und möglicherweise bald codieren. Einige Aufgaben sind nicht von der Art, wie sie die Biologie entwickelt hat, und Computer können die menschlichen Fähigkeiten nach nur wenigen Jahrzehnten der Forschung übertreffen und schließlich die menschliche Leistung um mehrere Größenordnungen übertreffen.


Es gibt einen drastischen Unterschied zwischen dem Autofahren und dem Programmieren eines Computers. Autofahren ist eine genau definierte Aufgabe, daher gibt es möglicherweise eine Möglichkeit, sie als ein Funktionsnäherungsproblem auszudrücken, weshalb sich möglicherweise neuronale Netze einschalten angenähert. Während das Programmieren eines Computers eigentlich keine Aufgabe ist, ist es eine Abfolge von Entscheidungen, die man trifft, während man über eine Situation nachdenkt. Es ist eine Kunst, Probleme in Probleme zu verwandeln.
Evgeniy
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.