Gibt es eine Standardmethode (oder die beste Methode) zum Testen, wenn sich eine bestimmte Zeitreihe stabilisiert hat?
Etwas Motivation
Ich habe ein stochastisches dynamisches System, das bei jedem Zeitschritt einen Wert ausgibt . Dieses System hat ein vorübergehendes Verhalten bis zum Zeitschritt und stabilisiert sich dann mit einem Fehler um einen Mittelwert . Keiner von , oder der Fehler sind mir bekannt. Ich bin bereit, einige Annahmen zu treffen (wie den Gaußschen Fehler um t ∈ N t ∗ x ∗ t ∗ x ∗ x ∗zum Beispiel) aber je weniger a priori Annahmen ich brauche, desto besser. Das einzige, was ich mit Sicherheit weiß, ist, dass es nur einen stabilen Punkt gibt, zu dem das System konvergiert, und dass die Schwankungen um den stabilen Punkt viel kleiner sind als die Schwankungen während der Übergangszeit. Der Prozess ist auch monoton, ich kann davon ausgehen, dass der Nähe von beginnt und in Richtung steigt (möglicherweise ein wenig überschießen, bevor es sich um stabilisiert ). 0 x ∗ x ∗
Die Daten stammen aus einer Simulation, und ich benötige den Stabilitätstest als Stoppbedingung für meine Simulation (da ich nur an der Übergangszeit interessiert bin).
Genaue Frage
es eine Methode, die nur mit angemessener Genauigkeit sagt, dass sich das stochastische dynamische System um einen Punkt stabilisiert hat, für ein endliches auf den Zeitwert ? Bonuspunkte, wenn der Test auch , und den Fehler um zurückgibt . Dies ist jedoch nicht unbedingt erforderlich, da es einfache Möglichkeiten gibt, dies nach Abschluss der Simulation herauszufinden. T x ∗ x ∗ t ∗ x ∗
Naiver Ansatz
Der naive Ansatz, der mir zuerst in den Sinn kommt (den ich zum Beispiel als Gewinnbedingungen für einige neuronale Netze gesehen habe), besteht darin, die Parameter und auszuwählen. Wenn es für die letzten Zeitschritte keine zwei Punkte und so dass dann schließen wir, dass wir uns stabilisiert haben. Dieser Ansatz ist einfach, aber nicht sehr streng. Es zwingt mich auch zu erraten, welche guten Werte von und sein sollten.E T x x ' x ' - x > E T E.
Es scheint, als sollte es einen besseren Ansatz geben, der auf einige Schritte in der Vergangenheit zurückblickt (oder alte Daten irgendwie rabattiert), den Standardfehler aus diesen Daten berechnet und dann prüft, ob für eine andere Anzahl von Schritten (oder einen anderen) Diskontierungsschema) Die Zeitreihe lag nicht außerhalb dieses Fehlerbereichs. Als Antwort habe ich eine etwas weniger naive, aber immer noch einfache Strategie aufgenommen .
Jede Hilfe oder Verweise auf Standardtechniken sind willkommen.
Anmerkungen
Ich habe diese Frage auch so wie sie ist an MetaOptimize und in einer Beschreibung mit mehr Simulationsgeschmack an Computational Science gesendet .