Ich arbeite intensiv mit finanziellen Zeitreihenmodellen, hauptsächlich AR (I) MA und Kalman.
Ein Problem, mit dem ich immer wieder konfrontiert bin, ist die Abtastfrequenz. Anfangs dachte ich, wenn ich die Möglichkeit hätte, häufiger von einem zugrunde liegenden Prozess abzutasten, sollte ich so häufig wie möglich abtasten, damit ich eine viel größere Anzahl von Stichproben habe, daher variieren meine Modellparameter weniger.
In Wirklichkeit erwies sich diese Idee nicht als gut. Was passiert ist, ist, dass, wenn der zugrunde liegende Prozess nicht genügend Variationen aufweist, das Erhöhen der Abtastfrequenz tatsächlich viele sich wiederholende (gleiche) Werte bedeutet. Und das Aufbauen eines Modells auf solchen Werten führt zu Modellen mit sehr sehr kleinen Modellkoeffizienten, die nicht gut in die Zukunft vorhersagen (natürlich ist die Definition von "gut" subjektiv und eine erhöhte Häufigkeit erfordert, um viel mehr Stichprobenschritte in die Zukunft vorherzusagen den gleichen Zeitschritt in einer niedrigeren Frequenzeinstellung erreichen). Das Modell lernt, was es am meisten trifft - eine flache Linie.
Ich wollte einen adaptiven Stichprobenansatz machen, dh häufiger Stichproben, wenn es Abweichungen gibt, und weniger häufig, wenn es keine gibt. Dies ist jedoch nicht einfach. Zunächst ist nicht klar, welche Art von Verzerrung ich dadurch einführe (und hängt davon ab, wie ich das Sample / Skip auslöse). Zweitens sind Zeitreihenmodelle wie ARIMA für ungleichmäßige Stichprobenschritte nicht gut geeignet.
Gibt es eine gute Möglichkeit, mit diesem Problem umzugehen? Ich frage mich auch, wie man einen nahtlosen Übergang zwischen kontinuierlichen Zeitmodellen und diskreten Zeitmodellen erreicht, wenn Modelle so dramatisch von der Abtastfrequenz beeinflusst werden (insbesondere wenn Zeitschritte immer kleiner werden). Hinweise auf externe Ressourcen sind ebenfalls willkommen.
Vielen Dank