Zufälliges Parameterproblem


15

Ich bemühe mich immer, die wahre Essenz des Problems der zufälligen Parameter zu finden. Ich habe mehrmals gelesen, dass die Fixeffektschätzer von nichtlinearen Paneldatenmodellen aufgrund des "bekannten" zufälligen Parameterproblems stark verzerrt sein können.

Wenn ich nach einer klaren Erklärung für dieses Problem frage, lautet die typische Antwort: Angenommen, die Paneldaten enthalten N Personen über T Zeiträume. Wenn T fest ist, werden die kovariaten Schätzungen mit wachsendem N voreingenommen. Dies liegt daran, dass die Anzahl der Störparameter mit zunehmendem N schnell zunimmt.

ich würde es sehr schätzen

  • eine genauere aber dennoch einfache Erklärung (wenn möglich)
  • und / oder ein konkretes Beispiel, das ich mit R oder Stata ausarbeiten kann.

3
Dies reicht für eine Antwort nicht aus. Das Problem der zufälligen Parameter kann in nichtlinearen Modellen auftreten, die im Gegensatz zur linearen Regression nicht die Eigenschaft haben, unverzerrte Schätzer zu sein. Ein beliebtes Beispiel ist probit / logit. Diese Modelle sind konsistente Schätzer, was bedeutet, dass mit zunehmendem Verhältnis von Anzahl der Beobachtungen zu Anzahl der Parameter die Parameterschätzungen auf ihre wahren Werte konvergieren, wenn die Standardfehler beliebig klein werden. Das Problem mit festen Effekten besteht darin, dass die Anzahl der Parameter mit der Anzahl der Beobachtungen zunimmt.
Zachary Blumenfeld

2
Daher können die Parameterschätzungen mit zunehmender Stichprobengröße niemals auf ihren wahren Wert konvergieren. Daher sind die Parameterschätzungen sehr unzuverlässig.
Zachary Blumenfeld

Danke für diese Klarstellung. Ich glaube, ich verstehe das Problem jetzt besser. Wenn mein Panel beispielsweise T = 8 und N = 2000 ist, kann ich einer Probit / Logit-Schätzung T-feste Effekte hinzufügen und verlässliche Schätzungen erhalten. Andernfalls würde ich mit N-festen Effekten unzuverlässige bekommen. Ist das richtig?
emeryville

2
Hier ist ein Blog-Eintrag, der das zufällige Parameterproblem für logit und probit anhand eines Beispiels in R veranschaulicht: econometricsbysimulation.com/2013/12/…
Arne Jonas Warnke

Antworten:


20

In FE-Modellen vom Typ α ist der Zufallsparameter, da er theoretisch von untergeordneter Bedeutung ist. In der Regel ist β statistisch gesehen der wichtige Parameter. Im Wesentlichen ist α jedoch wichtig, da es nützliche Informationen zum einzelnen Achsenabschnitt liefert.

yit=αi+βXit+uit
αβα

Die meisten Panels sind kurz, dh T ist relativ klein. Um das zufällige Parameterproblem zu veranschaulichen, werde ich der Einfachheit halber außer Acht lassen . Das Modell lautet also jetzt: y i t = α i + u i tβ

yit=αi+uituitiiN(0,σ2)
u^it=yity¯iασ2
σ^2=1NTit(yity¯i)2=σ2χN(T1)2NT=σ2N(T1)NT=σ2T1T

You can see that if T is "large" then the term T1T disappears, BUT, if T is small (which is the case in most of the panels) then the estimate of σ2 will be inconsistent. This makes the FE estimator to be inconsistent.

The reason β is usually consistent because usually N is indeed sufficiently large and therefore has the desired asymptotic requirements.

Note that in spatial panels for example, the situation is opposite - T is usually considered large enough, but N is fixed. So the asymptotics comes from T. Therefore in spatial panels you need a large T!

Hope it helps somehow.


Could you elaborate a bit more, how 1NTit(yity¯i)2, turned into σ2χN(T1)2NT?
Mario GS

1
@Mario GS: The sum of squared normal random variables is chi square distributed
Corel
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.