Ich frage mich, ob es Heuristiken in Bezug auf die Anzahl der Merkmale und die Anzahl der Beobachtungen gibt. Wenn eine Anzahl von Merkmalen gleich der Anzahl von Beobachtungen ist, wird das Modell offensichtlich überpasst. Mit sparsamen Methoden (LASSO, elastisches Netz) können wir verschiedene Merkmale entfernen, um das Modell zu verkleinern.
Meine Frage ist (theoretisch): Gibt es empirische Beobachtungen, die die optimale Anzahl von Merkmalen mit der Anzahl von Beobachtungen in Beziehung setzen, bevor wir die Modellauswahl anhand von Metriken bewerten ?
Beispiel: Gibt es für ein Binärklassifizierungsproblem mit 20 Instanzen in jeder Klasse eine Obergrenze für die Anzahl der zu verwendenden Features?