Ich denke, die vorherigen Antworten leisten gute Arbeit, um wichtige Punkte hervorzuheben:
- Sparsame Modelle haben tendenziell bessere Verallgemeinerungseigenschaften.
- Sparsamkeit ist nicht wirklich ein Goldstandard, sondern nur eine Überlegung.
Ich möchte ein paar Kommentare hinzufügen, die aus meiner täglichen Berufserfahrung stammen.
Die Verallgemeinerung des Vorhersagegenauigkeitsarguments ist natürlich stark, aber es ist akademisch voreingenommen. Im Allgemeinen sind die Volkswirtschaften bei der Erstellung eines statistischen Modells nicht derart, dass die Prognoseleistung eine vollständig dominierende Rolle spielt. Sehr oft gibt es große äußere Einschränkungen dafür, wie ein nützliches Modell für eine bestimmte Anwendung aussieht:
- Das Modell muss innerhalb eines vorhandenen Frameworks oder Systems implementiert werden können.
- Das Modell muss für eine nicht technische Entität verständlich sein .
- Das Modell muss rechnerisch effizient sein .
- Das Modell muss dokumentierbar sein .
- Das Modell muss behördliche Auflagen erfüllen .
In realen Anwendungsdomänen, viele , wenn nicht alle diese Überlegungen kommen vor , nicht nach , Predictive Performance - und die Optimierung der Modellform und Parameter wird eingeschränkt durch diese Wünsche. Jede dieser Einschränkungen führt den Wissenschaftler zu Sparsamkeit.
Es mag richtig sein, dass in vielen Bereichen diese Einschränkungen allmählich aufgehoben werden. Aber es ist der glückliche Wissenschaftler, der sie ignorieren kann, um Verallgemeinerungsfehler zu minimieren.
Dies kann sehr frustrierend sein, wenn Wissenschaftler zum ersten Mal die Schule verlassen haben (es war definitiv für mich und ist es auch weiterhin, wenn ich der Meinung bin, dass die Einschränkungen, die meiner Arbeit auferlegt werden, nicht gerechtfertigt sind). Aber am Ende ist es eine Verschwendung, hart daran zu arbeiten, ein inakzeptables Produkt herzustellen, und das fühlt sich schlimmer an als der Stich Ihres wissenschaftlichen Stolzes.