Es gibt eine alte Faustregel für multivariate Statistiken, die mindestens 10 Fälle für jede unabhängige Variable empfiehlt. Aber hier gibt es oft einen Parameter, der für jede Variable passt.
Warum ich frage: Ich arbeite an einem Lehrbuchbeispiel, das 500 Trainingsfälle (von 25000 im Datensatz) mit 15 Prädiktorvariablen und einer verborgenen Ebene mit 8 versteckten Knoten verwendet. Wir schätzen also 153 Gewichte. Von den 500 Fällen gibt es 129 Einsen und die restlichen Nullen. Es sind also mehr Gewichte als positive Fälle vorherzusagen. Das scheint falsch zu sein. Das resultierende Modell passt zu gut (aber die Validierung wird in diesem Lehrbuchproblem nicht behandelt).
Also, was ist ein Leitfaden für das Minimum? 10 mal Eingangsvariablen? 10 mal zu schätzende Parameter? Etwas anderes?
Es gibt verwandte Antworten, aber sie scheinen sich eher auf wünschenswerte Stichprobengrößen als auf das Minimum zu beziehen, z. B. Wie erhält man die für das Training neuronaler Netze erforderliche Datensatzgröße?
Kompromiss zwischen Stapelgröße und Anzahl der Iterationen zum Trainieren eines neuronalen Netzwerks
oder unbeantwortet bleiben Mindestgröße der für einen Klassifikator erforderlichen Trainingsstichprobengröße
Aber natürlich habe ich vielleicht eine gute vorherige Antwort verpasst.
number of parameters squared
Stichproben benötigen würden