Gibt es neuronale Netze, die entscheiden können, Neuronen hinzuzufügen / zu löschen (oder die Neuronenmodelle / Aktivierungsfunktionen zu ändern oder die zugewiesene Bedeutung für Neuronen zu ändern), Verknüpfungen oder sogar vollständige Schichten während der Ausführungszeit?
Ich vermute, dass solche neuronalen Netze die übliche Trennung von Lern- / Inferenzphasen überwinden und kontinuierlich ihr Leben leben, in dem Lernen und Selbstverbesserung stattfinden, zusammen mit Inferenz und tatsächlicher Entscheidungsfindung, für die diese neuronalen Netze gebaut wurden. Tatsächlich könnte es sich um ein neuronales Netzwerk handeln, das als Gödel-Maschine fungiert .
Ich habe den Begriff dynamisches neuronales Netzwerk gefunden, aber er ist mit dem Hinzufügen einiger Verzögerungsfunktionen und nichts weiter verbunden.
Natürlich definieren solche sich selbst verbessernden Netzwerke die Lernstrategie völlig neu, möglicherweise können Single-Shot-Gradientenmethoden nicht auf sie angewendet werden.
Meine Frage hängt mit der neuronal-symbolischen Integration zusammen, z. B. Neural-Symbolic Cognitive Reasoning von Artur S. D'Avila Garcez, 2009 . Normalerweise weist dieser Ansatz einzelnen Variablen den Variablen (oder Gruppen von Neuronen der Formel / Regel) im Satz von Formeln in einer Wissensbasis zu. Wenn sich die Wissensbasis erweitert (z. B. aus Sensorwerten oder aus inneren nichtmonotonen Schlussfolgerungen), sollten natürlich neue Variablen hinzugefügt werden, und daher sollte auch das neuronale Netzwerk erweitert (oder verkleinert) werden.