Zunächst einmal: Ich weiß, dass zum Trainieren eines neuronalen Netzwerks keine allgemeine Anzahl von Stichproben erforderlich ist. Es hängt von viel zu vielen Faktoren ab, wie der Komplexität der Aufgabe, dem Rauschen in den Daten und so weiter. Und je mehr Trainingsbeispiele ich habe, desto besser wird mein Netzwerk.
Aber ich habe mich gefragt: Ist es theoretisch möglich, ein neuronales Netzwerk mit weniger Trainingsmustern als Gewichten zu trainieren, wenn ich davon ausgehe, dass meine Aufgabe "einfach" genug ist? Kennt jemand ein Beispiel, wo das geklappt hat? Oder wird dieses Netzwerk mit ziemlicher Sicherheit eine schlechte Leistung erbringen?
Wenn ich zum Beispiel die Polynomregression betrachte, kann ich kein Polynom vom Grad 4 (dh mit 5 freien Parametern) nur auf 4 Datenpunkte anpassen. Gibt es eine ähnliche Regel für neuronale Netze, wenn ich meine Anzahl von Gewichten als die Anzahl von freien Parametern betrachte?