Was macht das tierische Gehirn so besonders?


7

Das ist also eine einleitende Frage. Wann immer ich ein Buch über neuronale Netze oder maschinelles Lernen lese, heißt es in ihrem Einführungskapitel, dass wir die Kraft des Gehirns aufgrund seiner massiven Parallelität nicht reproduzieren konnten.

In der heutigen Zeit wurden Transistoren auf die Größe von Nanometern reduziert, viel kleiner als die Nervenzelle. Wir können auch leicht sehr große Supercomputer bauen.

  • Computer haben viel größere Erinnerungen als das Gehirn.
  • Kann schneller kommunizieren als das Gehirn (Takt in Nanosekunden).
  • Kann beliebig groß sein.

Meine Frage ist also, warum wir die Parallelität des Gehirns nicht replizieren können, wenn nicht seine Fähigkeit zur Informationsverarbeitung (da das Gehirn noch nicht gut verstanden ist), selbst mit solch fortschrittlicher Technologie? Was genau ist das Hindernis, vor dem wir stehen?


Ich bin kein voll qualifizierter Neurowissenschaftler, daher könnte es auch interessant sein, einige Artikel über Multitasking zu lesen . Ich bin mir ziemlich sicher, dass diesbezüglich zahlreiche Untersuchungen durchgeführt wurden. " Was macht das tierische Gehirn so besonders? Lesen Sie etwas über das Selbstbewusstsein ( Bewusstsein).
Quintumnia

Antworten:


5

Ein wahrscheinlicher Hardware-Begrenzungsfaktor ist die interne Bandbreite. Ein menschliches Gehirn hat 10 ^ 15 Synapsen . Selbst wenn jeder nur ein paar Informationsbits pro Sekunde austauscht, liegt diese in der Größenordnung von 10 ^ 15 Bytes / Sek. Interner Bandbreite. Eine schnelle GPU (wie sie zum Trainieren neuronaler Netze verwendet wird) kann sich einer internen Bandbreite von 10 ^ 11 Bytes / s nähern. Sie könnten 10.000 davon miteinander vernetzen, um etwas in die Nähe der gesamten internen Bandbreite des menschlichen Gehirns zu bringen, aber die Verbindungen zwischen den Knoten wären relativ langsam und würden den Informationsfluss zwischen verschiedenen Teilen des "Gehirns" behindern.

Eine weitere Einschränkung könnte die rohe Verarbeitungsleistung sein. Eine moderne GPU hat vielleicht 5.000 Matheeinheiten. Jede Einheit hat eine Zykluszeit von ~ 1 ns und benötigt möglicherweise ~ 1000 Zyklen, um die äquivalente Verarbeitungsarbeit zu erledigen, die ein Neuron in ~ 1/10 Sekunde erledigt (dieser Wert wird vollständig aus der Luft gezogen; wir wissen nicht wirklich am meisten effizienter Weg, um die Gehirnverarbeitung in Silizium anzupassen). Eine einzelne GPU kann also möglicherweise 5 x 10 ^ 8 Neuronen in Echtzeit abgleichen. Sie würden optimalerweise 200 davon benötigen, um die Verarbeitungsleistung des Gehirns zu erreichen. Diese Berechnung auf der Rückseite der Hüllkurve zeigt, dass die interne Bandbreite wahrscheinlich eine strengere Einschränkung darstellt.


Nach meiner Analyse passt diese Antwort genau zu dieser Frage; Was ist der Unterschied zwischen den Multi-Core-Prozessoren, die Computer haben, und den Neuronetzwerken, die im menschlichen Gehirn existieren? Ich denke auch, dass das OP die Frage überarbeiten sollte, um Crosspostings aus der Psychologie-Community zu vermeiden.
Quintumnia

@ Quintumnia können Sie die Frage bearbeiten, wie Sie es für richtig halten
DuttaA

Es tut mir leid, aber diese Antwort schlägt in einigen häufigen und sehr alten Fehlern fehl, die in der KI aus Turing-Zeiten vorhanden sind und heutzutage hauptsächlich verworfen werden.
Pasaba por Aqui

Das ist meistens fair, aber nicht ganz so. Eine große GPU kann 10 ^ 10 Transistoren haben, die mit 10 ^ 11 Hz kippen, gegenüber 10 ^ 15 Synapsen, die mit 10 ^ 2 Hz kippen. Die von Ihnen angegebenen Ineffizienzen sind weitgehend struktureller Natur. Es scheint lächerlich anzunehmen, dass ein hypothetisch perfektes Transistorlayout durch einen Transistor-Flip mehrere Größenordnungen weniger als das 0,0001-fache des Nutzens als durch eine Neuronenaktivierung erhalten würde.
Veedrac

1
@Veedrac - ein Transistor hat zwei Binäreingänge; Ein Neuron hat Tausende von analogen Eingängen. Wenn Sie sich ernsthaften Neuronensimulationscode ansehen, war ich dem Silizium gegenüber zu großzügig. Selbst wenn Sie ein Neuron zu einer Zelle in einem neuronalen Netzwerk vereinfachen, erfordert die Berechnung der gewichteten Ausgabe für einen Zyklus viele Transistorschalter.
Antlersoft

2

Dies war mein Forschungsgebiet. Ich habe die vorherigen Antworten gesehen, die darauf hindeuten, dass wir nicht genügend Rechenleistung haben, aber das ist nicht ganz richtig.

Die rechnerische Schätzung für das menschliche Gehirn reicht von 10 petaFLOPS (1 x 10 ^ 16) bis 1 exaFLOPS (1 x 10 ^ 18). Verwenden wir die konservativste Zahl. Das TaihuLight kann 90 PetaFLOPS ausführen, was 9 x 10 ^ 16 entspricht.

Wir sehen, dass das menschliche Gehirn vielleicht 11x stärker ist. Wenn also die rechnerische Theorie des Geistes wahr wäre, sollte TaiHuLight in der Lage sein, die Denkfähigkeit eines Tieres um 1/11 als intelligent zu erfüllen.

Wenn wir uns eine Liste der neuralen Kortex ansehen , hat der Totenkopfäffchen als Mensch etwa 1/12 der Anzahl der Neuronen in seiner Hirnrinde. Mit AI können wir nicht mit der Denkfähigkeit eines Totenkopfäffchens mithalten.

Ein Hund hat ungefähr 1/30 der Anzahl von Neuronen. Mit KI können wir nicht mit der Denkfähigkeit eines Hundes mithalten.

Eine braune Ratte hat ungefähr 1/500 der Anzahl von Neuronen. Mit AI können wir nicht mit der Denkfähigkeit einer Ratte mithalten.

Dies bringt uns auf 2 petaFLOPS oder 2.000 teraFLOPS. Es gibt weltweit 67 Supercomputer, die dazu in der Lage sein sollten.

Eine Maus hat die Hälfte der Neuronen wie eine braune Ratte. Es gibt 190 Supercomputer, die in der Lage sein sollten, ihre Argumentationsfähigkeit zu erreichen.

Ein Frosch oder ein nicht schulischer Fisch macht etwa 1/5 davon aus. Alle Top 500 Supercomputer sind 2,5-mal so leistungsstark. Dennoch ist keiner in der Lage, diese Tiere zusammenzubringen.

Was genau ist das Hindernis, vor dem wir stehen?

Das Problem ist, dass ein kognitives System nicht nur mit Church-Turing definiert werden kann. AI sollte in der Lage sein, nicht-kognitive Tiere wie Arthropoden, runde Würmer und flache Würmer zu kombinieren, jedoch keine größeren Fische oder die meisten Reptilien.

Bearbeiten: Ich denke, ich muss konkretere Beispiele geben. Das NEST- System hat 1 Sekunde Betrieb von 520 Millionen Neuronen und 5,8 Billionen Synapsen in 5,2 Minuten auf dem 5 petaFLOPS BlueGene / Q gezeigt. Derzeit wird davon ausgegangen, dass sie, wenn sie das System um 200 auf ein exaFLOPS skalieren könnten, die menschliche Hirnrinde mit derselben 1/300 Normalgeschwindigkeit simulieren könnten. Das mag vernünftig klingen, macht aber eigentlich keinen Sinn.

Eine Maus hat 1/1000 so viele Neuronen wie ein menschlicher Kortex. Das gleiche System sollte heute in der Lage sein, ein Maushirn mit 1/60 normaler Geschwindigkeit zu simulieren. Warum machen sie das nicht?


Aber Sie vergessen den Bandbreitenteil
DuttaA

Die Bandbreite von was?
wissenschaftlich

Bandbreite bedeutet ungefähr die Menge an Informationen, die von einem Abschnitt zu einem anderen weitergegeben werden können ... Gehirn hat wahrscheinlich eine riesige Bandbreite aufgrund der zahlreichen Verzweigung in den Dendronen
DuttaA

Gute Antwort. (Wäre besser mit Links zu den Daten, aber dennoch interessant.) Auf hoher Ebene spüre ich, dass Verarbeitungsgeschwindigkeit und Durchsatz nur ein Teil des Problems sind, und dieser Aspekt bezieht sich mehr auf die Zeit als auf alles andere (dh wie lange es dauert) Prozess für eine bestimmte Entscheidung.) Aber ich glaube nicht, dass die jüngsten Durchbrüche in NNs hauptsächlich auf schnelle Prozessoren zurückzuführen sind. Vielmehr scheinen diese Durchbrüche mit neuen Techniken und zunehmender algorithmischer Raffinesse verbunden zu sein. Mein Sinn gilt auch für organische Gehirne. Maschinen, aber unglaublich raffiniert und optimiert
DukeZhou

@DukeZhou Links hinzugefügt. Nein, du liegst ziemlich falsch. Die Behauptung, das Gehirn sei nur eine Turingmaschine, kann widerlegt werden. Außerdem würde ich den Begriff "Durchbruch" nicht für ein System verwenden, das von einem sechs Monate alten Baby geschlagen werden kann.
wissenschaftlich

1

Kurze Antwort: Niemand weiß es. Lange Antwort: Alle starke KI funktioniert. Wenn Sie jedoch etwas Nützliches für die Operation schreiben möchten, sagen Sie, dass die Frage mehrere implizite Aussagen enthält, können Sie diese analysieren, um das Problem zu klären:

a) Warum hat 1 Transistor die gleiche Funktionalität wie 1 Neuron? Einige offensichtliche Unterschiede: Ein Transistor hat 3 Beine, jedes Neuron hat ungefähr 7000 Synapsen; Ein Transistor besteht aus 3 Materialschichten. Ein Neuron ist eine vollständige Mikromaschine mit Tausenden von Komponenten. Jede Synapse selbst ist ein Schalter, der mit einer oder mehreren anderen Zellen verbunden ist und verschiedene Arten von Signalen erzeugen kann (Aktivierung / Hemmung, Frequenzen, Amplitude, ...).

b) Vergleichen Sie die Speichermengen: Die Speichermenge in einer Person, die der in den 0 Bytes eines Computers entspricht. Wir können uns an nichts für immer und ohne Verzerrung erinnern. Das menschliche Gedächtnis ist symbolisch, zeitlich, assoziativ, beeinflusst von Körper und Gefühlen. Etwas völlig anderes als Computer.

c) Bei allen vorherigen handelt es sich um "Hardware": Wenn wir Software und Schulungen analysieren, sind die Unterschiede noch größer. Selbst wenn angenommen wird, dass Intelligenz nur im Gehirn vorhanden ist, ist das Vergessen der Rolle des Hormonsystems, der Sinne, ... eine Vereinfachung, die noch nicht bewiesen ist.

Fazit: Der menschliche Geist ist völlig anders als ein Computer, wir sind weit davon entfernt, ihn zu verstehen und weiter zu replizieren.

Von Beginn des Computerzeitalters an wird die Idee als Intelligenz auftauchen, wenn die Menge an Speicher, Prozessleistung, ... eine bestimmte Schwelle erreicht, die falsch geworden ist.


Du hast meine Frage nicht verstanden, ich habe nach der Gehirnleistung gefragt, nicht nach der Funktionsweise des Gehirns (ich weiß, wir verstehen es nicht klar). Ihr erster Punkt, normaler Transistor, ist heutzutage viel älter. Wir verwenden FETs, die kleiner sind. Ein menschliches Neuron ist einige Zentimeter lang, Millionen von Feten können in diesen Dimensionen angepasst werden, um ein Neuron leicht zu replizieren. 2. Punkt ist es vorteilhaft, Verzerrung weniger Gedächtnis und in viel größerer Menge zu haben, die ein Tier nicht besitzt. Und drittens frage ich nur die Leistung, die i9 / i7 / im Prozessor ist, nicht, wie Sie den Prozessor verwenden.
Aber insgesamt verstehe

Immer noch der gleiche Fehler: Sie möchten "Gehirnleistung" vergleichen, undefinierter Begriff. Die "Gehirnleistung" eines Computers ist 0, die "Computerleistung" des Gehirns ist ebenfalls 0
pasaba por aqui

Ich vergleiche eigentlich nicht Gehirn mit Computer Ich
frage

1
Jedes Gehirnatom, jedes Gehirnprotein, jedes Gen, jede Synapse, jedes Neuron neu erstellen? Modellieren als? Ich gebe Ihnen ein Beispiel: C. Elegans ist ein kleiner Wurm mit nur 300 Neuronen und 7000 Synapsen, der bereits vollständig kartiert und aufgelistet ist, aber noch von niemandem reproduziert oder simuliert wurde.
Pasaba por Aqui
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.