Angenommen, ich erwäge mehrere unabhängige Variablen für eine mögliche Aufnahme in ein von mir entwickeltes ARIMAX-Modell. Bevor ich verschiedene Variablen anpasse, möchte ich Variablen, die eine umgekehrte Kausalität aufweisen, mithilfe eines Granger-Tests herausfiltern (ich verwende die granger.test
Funktion aus dem MSBVAR
Paket in R, obwohl ich glaube, dass andere Implementierungen ähnlich funktionieren). Wie bestimme ich, wie viele Verzögerungen getestet werden sollen?
Die R-Funktion lautet : granger.test(y, p)
, wobei y
sich ein Datenrahmen oder eine Matrix befindet und p
die Verzögerungen sind.
Die Nullhypothese ist, dass die vergangenen Werte von X nicht bei der Vorhersage des Wertes von Y helfen .
Gibt es einen Grund, hier keine sehr hohe Verzögerung zu wählen (außer dem Verlust von Beobachtungen)?
Beachten Sie, dass ich bereits alle Zeitreihen in meinem Datenrahmen basierend auf der Integrationsreihenfolge meiner abhängigen Zeitreihen differenziert habe . (ZB wurde meine abhängige Zeitreihe einmal stationär differenziert. Daher habe ich auch alle "unabhängigen" Zeitreihen einmal differenziert.)