Unvoreingenommener Schätzer für das AR ( ) -Modell


11

Betrachten Sie ein AR ( ) -Modell (der Einfachheit halber wird ein Mittelwert von Null angenommen):p

xt=φ1xt1++φpxtp+εt

Es ist bekannt, dass der OLS-Schätzer (äquivalent zum Schätzer für bedingte maximale Wahrscheinlichkeit) für voreingenommen ist, wie in einem aktuellen Thread erwähnt .φ:=(φ1,,φp)

(Seltsamerweise konnte ich weder die in Hamilton "Time Series Analysis" noch in einigen anderen Zeitreihenlehrbüchern erwähnte Tendenz finden . Sie kann jedoch in verschiedenen Vorlesungsskripten und wissenschaftlichen Artikeln gefunden werden, z . B. in dieser .)

Ich konnte nicht herausfinden, ob der genaue Maximum-Likelihood-Schätzer von AR ( ) voreingenommen ist oder nicht; daher meine erste Frage.p

  • Frage 1: Ist der genaue Maximum-Likelihood-Schätzer der autoregressiven Parameter des AR ( ) voreingenommen? (Nehmen wir an, der AR ( ) -Prozess ist stationär. Andernfalls ist der Schätzer nicht einmal konsistent, da er im stationären Bereich eingeschränkt ist. Siehe z. B. Hamilton "Time Series Analysis" , S. 123.)pφ1,,φpp

Ebenfalls,

  • Frage 2: Gibt es einigermaßen einfache unvoreingenommene Schätzer?

2
Ich bin mir ziemlich sicher, dass der ML-Schätzer in einem AR (p) voreingenommen ist (das Vorhandensein der Stationaritätsgrenze deutet darauf hin, dass er voreingenommen sein wird), aber ich habe derzeit keinen Beweis für Sie (die meisten ML-Schätzer sind in irgendeiner voreingenommen Fall, aber wir haben ein bisschen mehr als das, um hier weiterzumachen). [Ich persönlich sehe Unparteilichkeit zumindest im Allgemeinen nicht als besonders nützliche Eigenschaft an - es ist wie der alte Witz über Statistiker, die auf Entenjagd gehen. Ceteris paribus, es zu haben ist natürlich besser als nicht, aber in der Praxis sind die ceteris niemals paribus . Es ist jedoch ein wichtiges Konzept. ]
Glen_b -Reinstate Monica

Ich dachte, Unparteilichkeit wäre wünschenswert, wenn ich in kleinen Proben arbeite, und ich habe mich gerade einem solchen Fall gestellt . Nach meinem Verständnis war in diesem Fall Unparteilichkeit wünschenswerter als beispielsweise Effizienz, solange die Effizienz quantifiziert werden konnte.
Richard Hardy

1
Wo die Verzerrung möglicherweise nicht gering ist (wie bei kleinen Stichproben), würde ich eher nach einem minimalen mittleren quadratischen Fehler suchen. Was bringt es, sich darum zu kümmern, dass Ihre Schätzung im Durchschnitt falsch sein könnte, obwohl Ihre alternative Schätzung tatsächlich viel falscher sein könnte, weil sie eine hohe Varianz aufweist? zB wenn meine Abweichung bei dieser Stichprobengröße für dieses 0,1 ist, könnte dies besorgniserregend groß sein, also würden Sie sagen "Verwenden wir einen unverzerrten Schätzer" ... aber wenn der Standardfehler groß genug ist, dass meine Schätzung normalerweise noch weiter von der entfernt ist korrekter Wert ... bin ich besser dran? ... ctdϕ
Glen_b -Reinstate Monica

1
ctd. ... Ich glaube nicht (zumindest nicht für meine üblichen Zwecke, und ich habe fast nie ein gutes Argument für Unparteilichkeit in einer praktischen Situation gesehen, für die so etwas wie MMSE nicht besser wäre). Mir ist wichtig, wie falsch diese Schätzung ist - wie weit ich vom wahren Wert entfernt sein kann - und nicht, wie stark sich der Durchschnitt verschiebt, wenn ich noch eine Million Mal in dieser Situation bin. Der wichtigste praktische Wert bei der Ermittlung der Verzerrung besteht darin, zu prüfen, ob Sie sie leicht reduzieren können, ohne die Varianz wesentlich zu beeinflussen.
Glen_b -State Monica

Gutes Argument, danke. Ich werde mehr darüber nachdenken.
Richard Hardy

Antworten:


1

Dies ist natürlich keine strenge Antwort auf Ihre Frage 1, aber da Sie die Frage im Allgemeinen gestellt haben, deuten Beweise für ein Gegenbeispiel bereits darauf hin, dass die Antwort Nein lautet.

Hier ist eine kleine Simulationsstudie unter Verwendung der exakten ML-Schätzung von arima0, um zu argumentieren, dass es mindestens einen Fall gibt, in dem Verzerrungen bestehen:

reps <- 10000
n <- 30
true.ar1.coef <- 0.9

ar1.coefs <- rep(NA, reps)
for (i in 1:reps){
  y <- arima.sim(list(ar=true.ar1.coef), n)
  ar1.coefs[i] <- arima0(y, order=c(1,0,0), include.mean = F)$coef
}
mean(ar1.coefs) - true.ar1.coef

+1 und danke!
Richard Hardy

-1

Ich lese zufällig dasselbe Buch, das Sie gerade lesen, und habe die Antwort auf Ihre beiden Fragen gefunden.

Die Voreingenommenheit der Autoregression-Betas wird im Buch auf Seite 215 erwähnt.

Das Buch erwähnt auch eine Möglichkeit, die Verzerrung auf Seite 223 zu korrigieren. Die Vorgehensweise erfolgt durch einen iterativen zweistufigen Ansatz.

Hoffe das hilft.


Gemäß den Richtlinien der Website sollten Antworten nicht einfach aus Verweisen auf Material an anderer Stelle bestehen.
Alexis
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.