Ich habe in diesem Sommer gelernt, wie man Prognosen erstellt, und ich habe Rob Hyndmans Buch Forecasting: Principles and Practice verwendet. Ich habe R verwendet, aber meine Fragen beziehen sich nicht auf Code. Bei den von mir verwendeten Daten habe ich festgestellt, dass eine durchschnittliche Prognose mehrerer Modelle zu höheren Genauigkeitsstufen geführt hat als jedes einzelne Modell für sich.
Kürzlich habe ich einen Blog gelesen, in dem es darum ging, Prognosemethoden zu mitteln und ihnen Gewichte zuzuweisen. Nehmen wir in meinem Fall an, ich ordne meinem Datensatz 11 verschiedene Modelle zu (Arima, ETS, Holt Winters, naiv, snaive usw.), und ich möchte einige davon mitteln, um eine Prognose zu erhalten. Hat jemand Erfahrung damit oder kann ich auf einen Artikel verweisen, der einen Einblick in die beste Vorgehensweise gibt?
Ab sofort verwende ich die Kreuzvalidierung und den mittleren absoluten Fehler, um herauszufinden, welche Modelle am besten und welche am schlechtesten abschneiden. Ich kann dies sogar verwenden, um die Top-Anzahl von Modellen zu identifizieren.
Ich denke meine Fragen sind
1) Wie viele Modelle würden Sie zur Auswahl vorschlagen? (2,3,4,5,6 usw.)
2) Irgendwelche Ideen zu Gewichten? (50% zum Besten, 25% zum Zweitbesten, 15% zum Drittbesten, 10% zum Viertbesten usw.)
3) Sind diese Prognosemodelle redundant und sollten nicht berücksichtigt werden? (Arima, snaive, naiv, HWs "Additiv", ETS, HoltWinters exponentielle Glättung, HoltWinters Glättung mit Trend, HoltWinters mit Trend / Saisonalität, multiple Regression)