Ich lese über Reservoir-Computing- Techniken wie Echo State Networks und Liquid State Machines . Beide Verfahren umfassen das Zuführen von Eingaben zu einer Population zufällig (oder nicht) verbundener Spike-Neuronen und einen relativ einfachen Auslesealgorithmus, der die Ausgabe erzeugt (z. B. lineare Regression). Die Neuronenpopulationsgewichte werden entweder festgelegt oder über eine hebräisch-ähnliche lokale Aktivitätsregel wie STDP trainiert .
Diese Techniken funktionieren gut bei der Modellierung mehrdimensionaler Eingaben mit signifikanten zeitlichen Komponenten. Die Berechnung der Potentiale der Spike-Neuronenmembran beinhaltet jedoch die Integration von Differentialgleichungen und kann rechenintensiv sein.
Gibt es Beispiele dafür, wo die zusätzliche Rechenkomplexität von Reservoir-Computertechniken durch Gewinne bei einer Vorhersage- oder Klassifizierungsaufgabe aufgewogen wird?
Gibt es beispielsweise Fälle von SNN-Techniken, die vergleichsweise komplexe Architekturen übertreffen, die auf RNNs, ANNs, SVMs, DNNs, CNNs oder anderen Algorithmen basieren?