Gibt es Rechenmodelle für Spiegelneuronen?


17

Aus Wikipedia:

Ein Spiegelneuron ist ein Neuron, das sowohl ausgelöst wird, wenn ein Tier handelt, als auch wenn das Tier die gleiche Aktion beobachtet, die von einem anderen Tier ausgeführt wird.

Spiegelneuronen beziehen sich auf Imitationslernen, eine sehr nützliche Funktion, die in aktuellen AI-Implementierungen in der realen Welt fehlt. Anstatt aus Input-Output-Beispielen (überwachtes Lernen) oder aus Belohnungen (verstärktes Lernen) zu lernen, kann ein Agent mit Spiegelneuronen lernen, indem er einfach andere Agenten beobachtet und ihre Bewegungen in sein eigenes Koordinatensystem übersetzt. Was haben wir zu diesem Thema in Bezug auf Rechenmodelle?

Antworten:


4

Dieser Artikel enthält eine Beschreibung der Spiegelneuronen im Hinblick auf das hebräische Lernen, ein Mechanismus, der in der KI weit verbreitet ist. Ich weiß nicht, ob die im Artikel angegebene Formulierung jemals tatsächlich rechnerisch umgesetzt wurde.


0

Egal ob "Ich nehme den Ball" oder "Er nimmt den Ball", alle gespeicherten Instanzen von "Nehmen" und "Ball" werden schwach aktiviert und "Nehmen des Balles" wird stark aktiviert. Ist dies nicht als "Spiegelung" zu qualifizieren? Wenn Sie auch wissen, dass "Ich habe einen Arm" und "Er hat einen Arm" usw., dann ist es nicht schwer zu glauben, dass "Ich könnte einige Blöcke nehmen", wenn "Er einige Blöcke nimmt".


0

Wir haben tatsächlich viele Dinge in dieser Richtung, die Bewegungserfassung für 3-D-Filme fällt einem fast sofort ein. Das Problem ist, wenn ich darüber nachdenke, dass es weniger eine Situation ist, einen anderen Schauspieler zu beobachten. Computer können das bereits mit der Menge an Bilderkennungssoftware, die wir haben, relativ gut. Es ist eher ein Problem des Verstehens, wenn eine Aktion ein gutes Ergebnis liefert net ist etwas, was Computer nicht können, da es sich nicht um ein Netzwerkproblem mit einem einzelnen Knoten handelt. Zum Beispiel haben wir bereits einen Computer so programmiert, dass er die menschliche Sprache versteht (wohl Watson), aber selbst Watson hat das Konzept nicht verstanden, dass es schlecht ist, "f ***" zu sagen. (Schau nach, es ist eine lustige Nebengeschichte.)

Der Punkt ist jedoch, dass Lernalgorithmen kein echtes Lernen in einem Sinne sind, wie ein Computer gegenwärtig kein Gefühl für "ein gutes Ergebnis" hat, und daher ist das Beobachtunglernen in gewissem Sinne auf "Affen sehen, Affen tun" beschränkt.

Vielleicht war das Nächste, worüber ich jemals gelesen habe, die Feuerbekämpfung von Such- und Rettungsbots, die in einem Netzwerk waren und sich gegenseitig sendeten, wenn einer von ihnen zerstört worden war, da die Bots wussten, dass das Gebiet etwas war, das sie vermeiden mussten.

Ansonsten denke ich, dass dies das Problem beim beobachtenden Lernen ist. Eine Person kann beobachten, dass Sie normalerweise zurückgeschlagen werden, wenn Sie jemanden schlagen, ein Computer beobachtet und papageiert die Handlung, ob gut oder schlecht.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.