Das Problem, mit dem ich mich beschäftige, ist die Vorhersage von Zeitreihenwerten. Ich betrachte jeweils eine Zeitreihe und möchte anhand von beispielsweise 15% der Eingabedaten deren zukünftige Werte vorhersagen. Bisher bin ich auf zwei Modelle gestoßen:
- LSTM (Long Short Term Memory; eine Klasse wiederkehrender neuronaler Netze)
- ARIMA
Ich habe beide ausprobiert und einige Artikel darüber gelesen. Jetzt versuche ich ein besseres Gefühl dafür zu bekommen, wie man die beiden miteinander vergleicht. Was ich bisher gefunden habe:
- LSTM funktioniert besser, wenn wir mit großen Datenmengen arbeiten und genügend Trainingsdaten verfügbar sind, während ARIMA für kleinere Datensätze besser ist (ist das richtig?)
- ARIMA erfordert eine Reihe von Parametern,
(p,q,d)
die anhand von Daten berechnet werden müssen, während für LSTM keine Einstellung solcher Parameter erforderlich ist. Es gibt jedoch einige Hyperparameter, die wir für LSTM optimieren müssen. - EDIT: Ein wesentlicher Unterschied zwischen den beiden, den ich beim Lesen eines großartigen Artikels hier festgestellt habe , ist, dass ARIMA nur bei stationären Zeitreihen (wo es keine Saisonalität, keinen Trend usw. gibt) eine gute Leistung erbringen kann, und Sie müssen sich darum kümmern, wenn möchte ARIMA verwenden
Abgesehen von den oben genannten Eigenschaften konnte ich keine anderen Punkte oder Fakten finden, die mir bei der Auswahl des besten Modells helfen könnten. Ich wäre wirklich dankbar, wenn mir jemand helfen könnte, Artikel, Papiere oder andere Sachen zu finden (hatte bisher kein Glück, nur ein paar allgemeine Meinungen hier und da und nichts basierend auf Experimenten.)
Ich muss erwähnen, dass ich mich ursprünglich mit Streaming-Daten befasse, aber derzeit NAB-Datensätze verwende, die 50 Datensätze mit der maximalen Größe von 20.000 Datenpunkten umfassen.