Ich frage mich, wie man eine wiederkehrende Architektur in einem EEG-Kontext interpretiert. Insbesondere betrachte ich dies als wiederkehrendes CNN (im Gegensatz zu Architekturen wie LSTM), aber vielleicht gilt es auch für andere Arten von wiederkehrenden Netzwerken
Wenn ich über R-CNNs lese, werden sie normalerweise in Bildklassifizierungskontexten erklärt. Sie werden typischerweise als "Lernen über die Zeit" oder "einschließlich der Auswirkung von Zeit 1 auf die aktuelle Eingabe" beschrieben.
Diese Interpretation / Erklärung wird beim Arbeiten mit EEG-Daten sehr verwirrend. Ein Beispiel für die Verwendung eines R-CNN für EEG-Daten finden Sie hier
Stellen Sie sich vor, ich habe Trainingsbeispiele, die jeweils aus einem 1x512-Array bestehen. Dieses Array erfasst einen Spannungswert für 1 Elektrode zu 512 aufeinanderfolgenden Zeitpunkten. Wenn ich dies als Eingabe für ein wiederkehrendes CNN verwende (unter Verwendung von 1D-Faltungen), erfasst der wiederkehrende Teil des Modells nicht wirklich "Zeit", oder? (wie aus den zuvor diskutierten Beschreibungen / Erklärungen hervorgeht) Weil in diesem Zusammenhang die Zeit bereits von der zweiten Dimension des Arrays erfasst wird
Was erlaubt uns der wiederkehrende Teil des Netzwerks bei einem solchen Setup tatsächlich zu modellieren, was ein regulärer CNN nicht kann (wenn nicht Zeit)?
Es scheint mir, dass wiederkehrend nur bedeutet, eine Faltung durchzuführen, das Ergebnis zur ursprünglichen Eingabe hinzuzufügen und erneut zu falten. Dies wird für x wiederkehrende Schritte wiederholt. Welchen Vorteil bietet dieser Prozess tatsächlich?