Ensemble-Zeitreihenmodell


13

Ich muss die Vorhersage von Zeitreihen automatisieren und kenne die Merkmale dieser Reihen (Saisonalität, Trend, Rauschen usw.) nicht im Voraus.

Mein Ziel ist es nicht, für jede Serie das bestmögliche Modell zu erhalten, sondern ziemlich schlechte Modelle zu vermeiden. Mit anderen Worten, jedes Mal kleine Fehler zu bekommen ist kein Problem, aber hin und wieder große Fehler zu bekommen.

Ich dachte, ich könnte dies erreichen, indem ich Modelle kombiniere, die mit verschiedenen Techniken berechnet wurden.

Das heißt, obwohl ARIMA der beste Ansatz für eine bestimmte Serie wäre, ist es möglicherweise nicht der beste für eine andere Serie. das gleiche gilt für die exponentielle Glättung.

Wenn ich jedoch ein Modell aus jeder Technik kombiniere, auch wenn ein Modell nicht so gut ist, bringt das andere die Schätzung näher an den tatsächlichen Wert.

Es ist bekannt, dass ARIMA besser für langfristig gut erzogene Serien funktioniert, während die exponentielle Glättung bei kurzfristig verrauschten Serien auffällt.

  • Meine Idee ist es, Modelle zu kombinieren, die mit beiden Techniken generiert wurden, um robustere Prognosen zu erhalten. Ist das sinnvoll?

Es gibt viele Möglichkeiten, diese Modelle zu kombinieren.

  • Wenn dies ein guter Ansatz ist, wie soll ich sie kombinieren?

Ein einfacher Mittelwert der Prognosen ist eine Option, aber vielleicht könnte ich bessere Vorhersagen erhalten, wenn ich den Mittelwert nach einem guten Maß des Modells gewichte.

  • Wie würde die Varianz beim Kombinieren von Modellen behandelt?

Ihre Ideen klingen großartig, aber ich bin mir nicht sicher, ob ich automatisch passende ARIMA-Modelle verwenden soll. Für univariate Serien vielleicht ... Konventionelle Weisheit ist, dass Holt-Winters ziemlich robust ist und automatisch verwendet wird, so dass dies Ihre Basis für Vergleiche zwischen Methoden außerhalb der Stichprobe sein könnte.
Scortchi - Monica wieder einsetzen

@ Scortchi Ich habe vergessen zu erwähnen, dass alle Serien univariat sind! ;) Ich stimme zu, dass Holt-Winters bei automatischer Verwendung eine wirklich gute Leistung erbringt, aber ich beabsichtige, eine weitere Meinung von einem anderen Modell einzuholen, um Fälle zu vermeiden, in denen Prognosen nicht so gut sind. Manchmal zeigt HW ein seltsames Trendverhalten.
João Daniel

1
Selbst im univariaten Fall fällt es mir schwer, mir ein automatisches Verfahren vorzustellen - es gibt Trends (stochastisch oder deterministisch), mögliche Transformationen, Saisonalität (multiplikativ oder additiv), über die ich nachdenken muss, und ich finde, dass ich viel Vorwissen verwende, um zu einem Modell zu gelangen darüber, was für das, was eine bestimmte Serie in der Realität darstellt, sinnvoll wäre. Der Beweis für den Pudding liegt jedoch im Essen - ich wollte wirklich nur sagen, dass ich nicht vergessen sollte, Vergleiche mit einfachen Techniken außerhalb der Stichprobe anzustellen - also viel Glück damit.
Scortchi

Antworten:


15

Prognosen zu kombinieren ist eine hervorragende Idee. (Ich denke, es ist keine Übertreibung zu sagen, dass dies eines der wenigen Dinge ist, über die sich akademische Prognostiker einig sind.)

Ich habe vor einiger Zeit eine Arbeit geschrieben, in der verschiedene Möglichkeiten zur Gewichtung von Prognosen bei der Kombination untersucht wurden: http://www.sciencedirect.com/science/article/pii/S0169207010001032 Grundsätzlich hat die Verwendung von (Akaike-) Gewichten die Kombinationen nicht konsistent verbessert Ich persönlich würde zweimal überlegen, bevor ich ein komplexes Verfahren implementiere, das möglicherweise keinen eindeutigen Nutzen bringt (denken Sie jedoch daran, dass Kombinationen die Auswahl einzelner Methoden nach Informationskriterien durchweg übertrafen). Dies kann natürlich von der jeweiligen Zeitreihe abhängen.

Ich habe mir im obigen Artikel die Kombination von Vorhersageintervallen angesehen, aber nicht die Kombination von Varianz als solche. Ich erinnere mich an ein Papier, das vor nicht allzu langer Zeit in der IJF veröffentlicht wurde, mit diesem Schwerpunkt. Vielleicht möchten Sie in früheren Ausgaben der IJF nach "Kombinieren" oder "Kombinieren" suchen.

Einige andere Artikel, die sich mit der Kombination von Prognosen befasst haben, sind hier (ab 1989, aber eine Übersicht) und hier und hier (auch in Bezug auf die Dichte) und hier und hier. Viele von ihnen stellen fest, dass es immer noch wenig verstanden wird, warum Prognosekombinationen häufig einzelne ausgewählte Modelle übertreffen. Das vorletzte Papier befasst sich mit dem M3-Prognosewettbewerb. Eine ihrer wichtigsten Erkenntnisse war (Nummer (3) auf S. 458), dass "die Genauigkeit der Kombination verschiedener Methoden im Durchschnitt die spezifischen Methoden übertrifft, die kombiniert werden, und im Vergleich zu anderen Methoden gut abschneidet." Das letzte dieser Papiere stellt fest, dass Kombinationen nicht unbedingt eine bessere Leistung als einzelne Modelle erbringen, sondern dass sie das Risiko eines katastrophalen Ausfalls erheblich verringern können (was eines Ihrer Ziele ist). Weitere Literatur finden Sie im International Journal of Forecasting , dem Journal of Forecasting und für spezifischere Anwendungen in der Ökonometrie- oder Lieferkettenliteratur.


1
Großartige Sichtweise beim Kombinieren von Modellen! Ihre Antwort war sehr konstruktiv!
João Daniel

@Stephan Kolassa, hätten Sie Kommentare zur Kombination von Vorwärts- und Rückwärtsprädiktoren wie bei Burgs Methode?
Denis

@denis: Ich bin weder mit Vorwärts- oder Rückwärtsprädiktoren noch mit Burgs Methode vertraut, sorry ... obwohl ich davon ausgehen würde, dass das Kombinieren von Prognosen / Vorhersagen (auch Ensemble-Methoden genannt) normalerweise von Vorteil ist.
Stephan Kolassa

Hallo Stephan, toller Artikel. Es sieht so aus, als ob sich die Journal-Site geändert hat und es nicht mehr möglich ist, Ihren R-Code von der Haupt-Site herunterzuladen. Befindet sich das Hosting jetzt auf einer anderen Website?
Ian

@ Ian: Sie haben möglicherweise keinen Zugriff darauf, wenn Sie sich nicht anmelden. Schicken Sie mir eine E-Mail ( meine Adresse finden Sie hier ), ich sende die Skripte. Gib mir ein paar Tage, um sie auszugraben.
Stephan Kolassa

1

Warum nicht weiter spezifizieren? Ich denke nicht, dass ein Modell, das Sie produzieren würden, besser oder gut genug sein könnte als eine bestimmte Wahl.

Wenn Sie jedoch Ihre Auswahl ein wenig auf die eingrenzen können, auf die Sie testen können, und die Dateneingabe standardisiert werden kann, warum nicht ein automatisiertes Testverfahren in R schreiben?

Angenommen, Sie entscheiden, dass Ihre Daten in einen Bereich fallen, der von fünf Modellen sowie einem "Fallback" geschätzt wird. Angenommen, Sie können die Eingabe durch verschiedene Tests charakterisieren. Dann schreiben Sie einfach einen R-Algorithmus (oder ein ähnliches Programm), der dies für Sie ausführt. Dies funktioniert, wenn Sie ein Flussdiagramm erstellen können, welches Modell basierend auf Testdaten ausgeführt werden soll, dh wenn ein Punkt des Entscheidungsbaums binär ist.

Wenn dies keine Option ist, da die Entscheidung möglicherweise nicht binär ist, empfehle ich Ihnen, ein Bewertungssystem zu implementieren, das auf anwendbaren Tests basiert, und einige simulierte Daten für "Extremfälle" durch Ihr Raster zu führen, um festzustellen, ob die Ergebnisse Ihren Wünschen entsprechen.

Sie können diese Dinge natürlich kombinieren, zum Beispiel kann das Testen auf Nichtstationarität ein definitives Ja-Nein ergeben, während andere Attribute in einen Bereich wie Multikollinearität fallen können.
Sie können dies zuerst auf Papier zeichnen, dann erstellen und mit bekannten Verteilungen simulieren, die Sie erwarten.

Führen Sie dann einfach das R-Programm jedes Mal aus, wenn neue Daten eintreffen. Ich sehe keine Notwendigkeit, mehrere Modelle mit den Rechenfähigkeiten zu kombinieren, über die Sie höchstwahrscheinlich verfügen.


Es ist eine gute Idee, die Auswahl einzugrenzen, beispielsweise keine nicht saisonalen Methoden zu verwenden, wenn die Daten offensichtlich saisonabhängig sind. Aber selbst dann würde ich argumentieren, dass die Mittelung mehrerer saisonaler Modelle (additive vs. multiplikative Saisonalität, mit oder ohne Trend usw.) die Prognosegenauigkeit im Durchschnitt verbessern wird. Zumindest ist das der Eindruck, den ich durch einiges an Kontakt mit der Prognosegemeinschaft sowie mit dem M3 und ähnlichen Prognosewettbewerben bekomme.
Stephan Kolassa

Haben Sie zusätzliche Unterlagen dazu? Ich meine, dies wäre ein einfaches, aber relevantes Forschungsthema. Sehr interessante Idee, obwohl ich nur intuitiv nicht der Meinung bin, dass sie notwendigerweise besser wäre als ein dynamisches Modellraster.
IMA

Guter Punkt. Ich habe meine Antwort so bearbeitet, dass sie einen zusätzlichen Absatz mit mehr Literaturhinweisen enthält. Ich stimme zu, dass dies unkompliziert und relevant ist, und es ist immer noch wenig bekannt, warum die Prognosemittelung normalerweise die Genauigkeit verbessert.
Stephan Kolassa

Ja, ich meine, Sie könnten alle Arten von Verteilungsproblemen modellieren und sie rechnerisch und grundlegend angreifen. Danke für die Papiere, sehr interessant.
IMA

0

Es gibt schöne und einfache Formeln zum Kombinieren von zwei Prognosemethoden. Sie gewichten sie einfach, indem Sie die erste mit a und die andere mit (1 - a) multiplizieren, wobei a durch Minimieren der Varianz dieser kombinierten Prognose ermittelt wird. Da Sie die Fehler beider Prognosemethoden kennen, können Sie die Fehler der Kombination berechnen, die von "a" abhängt. Die Berechnung ist einfach, wenn der Mittelwert jeder Methode = 0 ist. Für die Kombination von mehr als 2 Methoden sind die Formeln immer noch "einfach" in dem Sinne, dass Sie sie analytisch "von Hand" berechnen oder auch die Solver-Option von EXCEL verwenden können


Können Sie auf diese Methode verweisen?
HoraceT
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.