In welcher Beziehung steht ein Zufallseffektmodell in der Ökonometrie zu gemischten Modellen außerhalb der Ökonometrie?


56

Früher dachte ich, dass das "Zufallseffektmodell" in der Ökonometrie einem "gemischten Modell mit zufälligem Schnitt" außerhalb der Ökonometrie entspricht, aber jetzt bin ich mir nicht sicher. Macht es?

In der Ökonometrie werden Begriffe wie "feste Effekte" und "zufällige Effekte" etwas anders verwendet als in der Literatur zu gemischten Modellen, was zu einer berüchtigten Verwirrung führt. Betrachten wir eine einfache Situation, in der linear von abhängt, jedoch in verschiedenen Gruppen von Messungen einen unterschiedlichen Achsenabschnitt aufweist:xyx

yit=βxit+ui+ϵit.

Hier wird jede Einheit / Gruppe zu unterschiedlichen Zeitpunkten . Ökonomen nennen es "Paneldaten".it

  • In der Terminologie gemischter Modelle können wir als festen Effekt oder als zufälligen Effekt behandeln (in diesem Fall als zufälligen Schnittpunkt). Wenn Sie es als fest behandeln, müssen Sie und anpassen, um den Fehlerquadrat zu minimieren (dh OLS-Regression mit Dummy-Gruppenvariablen ausführen). Wenn wir es als zufällig behandeln, nehmen wir zusätzlich an, dass und verwenden die maximale Wahrscheinlichkeit, um und zu passen, anstatt jedes für sich zu passen . Dies führt zu dem "partiellen Pooling" -Effekt, bei dem die Schätzungen zu ihrem Mittelwert geschrumpft werden .ß u i u i ~ N ( u 0 , σ 2 u ) u 0 σ 2 u u i u i u 0uiβ^u^iuiN(u0,σu2)u0σu2uiu^iu^0

    R formula when treating group as fixed:    y ~ x + group
    R formula when treating group as random:   y ~ x + (1|group)
    
  • In der ökonometrischen Terminologie können wir dieses gesamte Modell als Modell mit festen Effekten oder als Modell mit zufälligen Effekten behandeln. Die erste Option entspricht dem oben genannten festen Effekt (die Ökonometrie hat jedoch eine eigene Methode zur Schätzung von in diesem Fall, die als bezeichnet wird ). Früher dachte ich, dass die zweite Option dem obigen Zufallseffekt entspricht. zB @JiebiaoWang in seiner hoch gelobten Antwort auf Was ist ein Unterschied zwischen zufälligen Effekten, festen Effekten und Randmodellen? sagt, dass β"within" estimator

    In der Ökonometrie darf sich das Zufallseffektmodell wie in der Biostatistik nur auf das Zufallsschnittmodell beziehen

Okay - lassen Sie uns testen, ob dieses Verständnis korrekt ist. Hier sind einige zufällige Daten, die von @ChristophHanck in seiner Antwort auf Was ist der Unterschied zwischen Modellen mit festen Effekten, zufälligen Effekten und gemischten Effekten ? (Ich habe die Daten hier in den Pastebin gestellt für diejenigen, die R nicht verwenden):

Bildbeschreibung hier eingeben

@Christoph macht zwei Anpassungen mit ökonometrischen Ansätzen:

fe <- plm(stackY~stackX, data = paneldata, model = "within")
re <- plm(stackY~stackX, data = paneldata, model = "random")

Der erste gibt die Schätzung von Beta gleich -1.0451, der zweite 0.77031(ja, positiv!). Ich habe versucht, es mit lmund zu reproduzieren lmer:

l1 = lm(stackY ~ stackX + as.factor(unit), data = paneldata)
l2 = lmer(stackY ~ stackX + (1|as.factor(unit)), data = paneldata)

Die erste ergibt -1.045in perfekter Übereinstimmung mit dem obigen Schätzer. Cool. Aber die zweite Ausbeute -1.026, die meilenweit vom Zufallseffektschätzer entfernt ist. Heh? Was ist los? In der Tat, was plmauch tun , wenn sie aufgerufen werden mit model = "random"?

Was auch immer es tut, kann man es irgendwie aus der Perspektive der gemischten Modelle verstehen?

Und was ist die Intuition hinter dem, was es tut? Ich habe an einigen ökonometrischen Stellen gelesen, dass der Zufallseffektschätzer ein gewichteter Durchschnitt zwischen dem Schätzer für feste Effekte und dem Wert "between" estimatorist, der mehr oder weniger der Regressionssteigung entspricht, wenn wir die Gruppenidentität überhaupt nicht in das Modell einbeziehen (diese Schätzung ist stark positiv) case, around 4.) zB @Andy schreibt hier :

Der Zufallseffektschätzer verwendet dann einen matrixgewichteten Durchschnitt der Variation innerhalb und zwischen Ihren Daten. [...] Dies macht zufällige Effekte effizienter [.]

Warum? Warum sollten wir diesen gewichteten Durchschnitt wollen? Und insbesondere, warum sollten wir es wollen, anstatt ein gemischtes Modell zu betreiben?


8
Wow, mehr als 20 Upvotes und sechs aufschlussreiche Antworten in weniger als 24 Stunden, aber alle konzentrieren sich auf die ökonometrische Seite des Denkens. Keine Antwort stellt eine Verbindung zu gemischten Modellen her.
Amöbe sagt Reinstate Monica


Antworten:


16

Zusammenfassung: Das "Random-Effects-Modell" in der Ökonometrie und ein "Random-Intercept-Mixed-Modell" sind zwar dieselben Modelle, werden jedoch auf unterschiedliche Weise geschätzt. Die ökonometrische Methode besteht in der Verwendung von FGLS und die gemischte Modellmethode in der Verwendung von ML. Es gibt verschiedene Algorithmen für die Durchführung von FGLS, und einige davon (in diesem Datensatz) führen zu Ergebnissen, die sehr nahe an ML liegen.


1. Unterschiede zwischen Schätzmethoden in plm

Ich antworte mit meinem Test auf plm(..., model = "random")und lmer()unter Verwendung der von @ChristophHanck generierten Daten.

Nach dem Handbuch des plm-Pakets gibt es vier Möglichkeiten random.method: die Schätzmethode für die Varianzkomponenten im Zufallseffektmodell. @amoeba verwendete die Standardeinstellung swar(Swamy und Arora, 1972).

Für Zufallseffektmodelle stehen vier Schätzer des Transformationsparameters zur Verfügung, indem random.method auf "swar" (Swamy und Arora (1972)) (Standard), "amemiya" (Amemiya (1971)), "walhus" ( Wallace und Hussain (1969) oder "Nerlove" (Nerlove (1971)).

Ich habe alle vier Optionen mit denselben Daten getestet und dabei einen Fehler füramemiya und drei völlig unterschiedliche Koeffizientenschätzungen für die Variable erhalten stackX. Die von using random.method='nerlove'und 'amemiya' entsprechen fast den lmer()Werten von -1.029 und -1.025 gegenüber -1.026. Sie unterscheiden sich auch nicht sehr von denen, die im "Fixed-Effects" -Modell (-1,045) erhalten wurden.

# "amemiya" only works using the most recent version:
# install.packages("plm", repos="http://R-Forge.R-project.org")

re0 <- plm(stackY~stackX, data = paneldata, model = "random") #random.method='swar'
re1 <- plm(stackY~stackX, data = paneldata, model = "random",  random.method='amemiya')
re2 <- plm(stackY~stackX, data = paneldata, model = "random",  random.method='walhus')
re3 <- plm(stackY~stackX, data = paneldata, model = "random",  random.method='nerlove')
l2  <- lmer(stackY~stackX+(1|as.factor(unit)), data = paneldata)

coef(re0)     #    (Intercept)   stackX    18.3458553   0.7703073 
coef(re1)     #    (Intercept)   stackX    30.217721   -1.025186 
coef(re2)     #    (Intercept)   stackX    -1.15584     3.71973 
coef(re3)     #    (Intercept)   stackX    30.243678   -1.029111 
fixef(l2)     #    (Intercept)   stackX    30.226295   -1.026482 

Leider habe ich momentan keine Zeit, aber interessierte Leser finden die vier Referenzen, um ihre Schätzverfahren zu überprüfen. Es wäre sehr hilfreich herauszufinden, warum sie so einen Unterschied machen. Ich gehe davon aus, dass in einigen Fällen das plmSchätzverfahren, bei dem die lm()transformierten Daten verwendet werden, dem Verfahren für die maximale Wahrscheinlichkeit entsprechen sollte, das in verwendet wird lmer().

2. Vergleich zwischen GLS und ML

Die Autoren des plmPakets haben die beiden in Abschnitt 7 ihres Papiers verglichen: Yves Croissant und Giovanni Millo, 2008, Panel Data Econometrics in R: The plm package .

Die Ökonometrie befasst sich hauptsächlich mit nicht experimentellen Daten. Besonderes Augenmerk wird auf Spezifikationsverfahren und Fehlspezifikationstests gelegt. Die Modellspezifikationen sind daher in der Regel sehr einfach, wobei den Fragen der Endogenität der Regressoren, der Abhängigkeitsstrukturen in den Fehlern und der Robustheit der Schätzer bei Abweichungen von der Normalität große Aufmerksamkeit geschenkt wird. Der bevorzugte Ansatz ist häufig semi- oder nicht parametrisch, und heteroskedastizitätskonsistente Techniken werden sowohl beim Schätzen als auch beim Testen zum Standard.

Aus all diesen Gründen wird die Abschätzung von Panelmodellen in der Ökonometrie meist im verallgemeinerten Rahmen der kleinsten Quadrate [...] auf der Grundlage von Aitkens Theorem durchgeführt. Im Gegenteil, in Längsdatenmodelle nlmeund lme4sind durch (eingeschränkte oder uneingeschränkte) maximale Wahrscheinlichkeit abgeschätzt. [...]

Der ökonometrische GLS-Ansatz verfügt über geschlossene analytische Lösungen, die mit der linearen Standardalgebra berechnet werden können, und obwohl diese manchmal rechenintensiv sind, sind die Ausdrücke für die Schätzer in der Regel recht einfach. Die ML-Schätzung von Longitudinalmodellen basiert dagegen auf der numerischen Optimierung nichtlinearer Funktionen ohne geschlossene Lösungen und ist daher von Approximationen und Konvergenzkriterien abhängig.


3. Update auf gemischten Modellen

Ich weiß es zu schätzen, dass @ChristophHanck eine gründliche Einführung in die vier random.methodverwendeten Produkte gegeben plmund erklärt hat, warum ihre Schätzungen so unterschiedlich sind. Wie von @amoeba gefordert, werde ich einige Gedanken zu den gemischten Modellen (auf Wahrscheinlichkeit basierend) und ihrer Verbindung mit GLS hinzufügen.

Bei der Wahrscheinlichkeitsmethode wird normalerweise eine Verteilung sowohl für den Zufallseffekt als auch für den Fehlerterm angenommen. Eine Normalverteilungsannahme wird häufig verwendet, es gibt jedoch auch einige Studien, die eine nicht normale Verteilung annehmen. Ich werde @ ChristophHancks Notationen für ein zufälliges Intercept-Modell folgen und unausgeglichene Daten zulassen, dh .T=ni

Das Modell ist mit .

yit=xitβ+ηi+ϵiti=1,,m,t=1,,ni
ηiN(0,ση2),ϵitN(0,σϵ2)

Für jedes ist Die Log-Likelihood-Funktion lautet alsoi

yiN(Xiβ,Σi),Σi=ση21ni1ni+σϵ2Ini.
const12ilog|Σi|12i(yiXiβ)Σi1(yiXiβ).

Wenn alle Varianzen bekannt sind, wie in Laird und Ware (1982) gezeigt, ist die MLE was dem GLS abgeleitet von @ChristophHanck. Der Hauptunterschied liegt also in der Schätzung der Varianzen. Da es keine geschlossene Lösung gibt, gibt es verschiedene Ansätze:

β^=(iXiΣi1Xi)1(iXiΣi1yi),
β^RE
  • direkte Maximierung der Log-Likelihood-Funktion unter Verwendung von Optimierungsalgorithmen;
  • Expectation-Maximization (EM) -Algorithmus: Lösungen in geschlossener Form existieren, aber der Schätzer für beinhaltet empirische Bayes'sche Schätzungen des zufälligen Abschnitts;β
  • eine Kombination der beiden obigen Algorithmen, Expectation / Conditional Maximization Either (ECME) (Schafer, 1998; R-Paket lmm). Mit einer anderen Parametrisierung existieren geschlossene Lösungen für (wie oben) und . Die Lösung für kann geschrieben werden als wobei als und in einem EM-Framework geschätzt werden kann.βσϵ2σϵ2
    σϵ2=1inii(yiXiβ^)(ξ^1ni1ni+Ini)1(yiXiβ^),
    ξση2/σϵ2

Zusammenfassend hat MLE Verteilungsannahmen und wird in einem iterativen Algorithmus geschätzt. Der Hauptunterschied zwischen MLE und GLS besteht in der Schätzung der Varianzen.

Croissant und Millo (2008) haben darauf hingewiesen

Während unter normalen Umständen die Homoskedastizität und keine serielle Korrelation der Fehler-OLS auch der Schätzer für die maximale Wahrscheinlichkeit sind, gibt es in allen anderen Fällen wichtige Unterschiede.

Meiner Meinung nach wäre für die Verteilungsannahme MLE ebenso wie der Unterschied zwischen parametrischen und nicht parametrischen Ansätzen effizienter, wenn die Annahme gilt, während GLS robuster wäre.


Ich würde vermuten, dass das Problem mit der Fehlermeldung irgendwie damit zusammenhängt, dass ich die Variablen als Vektoren generiere. Vielleicht möchte plm, dass die Daten anders gespeichert werden?
Christoph Hanck

1
nerloveFunktioniert hier gut, ist aber nicht für unausgeglichene Panels implementiert, wie ich herausgefunden habe, indem ich 1 Beobachtung aus dem letzten Panel gelöscht und versucht habe, alle Methoden auszuführen.
Amöbe sagt Reinstate Monica

2
@ChristophHanck @amoeba Der plmFehler für random.method="amemiya"fällt mir ein , dass sie wahrscheinlich verwenden sollten , X[, -1, drop=FALSE]anstatt X[, -1]die Matrix - Format beibehalten , X[, -1]wenn es nur eine Kovariate im Modell. Wie auch immer, ich habe versucht, dies zu überwinden, indem ich der Formel eine normale Standardvariable hinzufügte. amemiyaGibt das Ergebnis mit einer Schätzung von -1,02 wieder und funktioniert auch für unsymmetrische Daten.
Randel

3
@ jiebiao-wang @ChristophHanck @amoeba Die aktuelle Entwicklungsversion von plm läuft einwandfrei mit random.method="amemiya": var std.dev share idiosyncratic 0.6360 0.7975 0.002 individual 313.6510 17.7102 0.998 theta: 0.9841
Helix123

1
Hallo @ JiebiaoWang. Ich stellte fest, dass Ihre Antwort nach Ihrem Update meine Frage zufriedenstellend beantwortet. Ich habe mir erlaubt, einige Änderungen vorzunehmen und ein Update über amemiyaund ein Zitat über ML vs GLS einzufügen . Ich markiere es als akzeptiert und werde es mit einem Kopfgeld belohnen. Prost.
Amöbe sagt Reinstate Monica

17

Diese Antwort bezieht sich nicht auf gemischte Modelle, aber ich kann erklären, was der Zufallseffektschätzer macht und warum er dieses Diagramm durcheinander bringt.

Zusammenfassung: Der Zufallseffektschätzer geht von , was in diesem Beispiel nicht zutrifft.E[uix]=0


Was macht der Random Effects Estimator?

Angenommen, wir haben das Modell:

yit=βxit+ui+ϵit

Wir haben zwei Variationsdimensionen: Gruppen und Zeit . Um abzuschätzen , könnten wir:itβ

  1. Verwenden Sie Zeitreihenvariationen nur innerhalb einer Gruppe. Dies ist, was der Fixed-Effect-Estimator tut (und aus diesem Grund wird er auch oft als Within-Estimator bezeichnet).
  2. Wenn zufällig ist, können wir nur Querschnittsvariationen zwischen den Zeitreihenmitteln von Gruppen verwenden. Dies ist als der Zwischenschätzer bekannt .ui

    Insbesondere wird für jede Gruppe der zeitliche Durchschnitt des obigen Paneldatenmodells herangezogen, um Folgendes zu erhalten:i

    y¯i=βx¯i+vi where vi=ui+ϵ¯i

    Wenn wir diese Regression ausführen, erhalten wir den Zwischenschätzer. Beachten Sie, dass es ein konsistenter Schätzer ist, wenn die Effekte zufälliges weißes Rauschen sind, das nicht mit ist ! Wenn dies der Fall ist, ist es ineffizient, die Variation zwischen den Gruppen (wie wir es mit dem Schätzer für feste Effekte tun) vollständig zu werfen.uix

Der Zufallseffektschätzer der Ökonometrie kombiniert (1) den Schätzer innerhalb des Schätzers (dh den Schätzer für feste Effekte) und (2) den Schätzer zwischen den Effekten, um die Effizienz zu maximieren. Es ist eine Anwendung von verallgemeinerten kleinsten Quadraten und die Grundidee ist die inverse Varianzgewichtung . Um die Effizienz zu maximieren, berechnet der Zufallseffektschätzer als gewichteten Durchschnitt des Schätzers innerhalb und des Schätzers zwischen zwei Effekten .β^

Was ist los in dieser Grafik ...

Wenn Sie nur diese Grafik betrachten, können Sie deutlich sehen, was los ist:

  • Innerhalb jeder Gruppe (dh Punkte der gleichen Farbe) ist ein höheres einem niedrigerenixityit
  • Eine Gruppe mit einem höheren hat ein höheres .ix¯iui

Die Annahme zufälliger Effekte, dass ist, ist eindeutig nicht erfüllt. Die Gruppeneffekte sind nicht orthogonal zu (im statistischen Sinne), sondern die Gruppeneffekte haben eine eindeutig positive Beziehung zu .E[uix]=0uixx

Der Zwischenschätzer geht von . Der Zwischenschätzer sagt: "Sicher kann ich , indem ich positiv mache !"E[uix]=0E[uix]=0β^

Dann wiederum ist der Zufallseffektschätzer ausgeschaltet, da es sich um einen gewichteten Durchschnitt des Schätzers innerhalb und des Schätzers zwischen zwei Effekten handelt.


+1, danke Matthew. Ich bin mir nicht sicher, warum jemand deine Antwort abgelehnt hat. Ich suche nach einer Antwort, die die Verbindung zu gemischten Modellen herstellt, damit ich Ihre nicht akzeptiere, aber ich finde sie trotzdem hilfreich für diese Diskussion. Wenn Sie ein wenig erläutern können, wie GLS und die inverse Varianzgewichtung hier angewendet und berechnet werden, ist dies sehr nützlich.
Amöbe sagt Reinstate Monica

16

In dieser Antwort möchte ich ein wenig auf Matthews + 1-Antwort in Bezug auf die GLS-Perspektive eingehen, die in der ökonometrischen Literatur als Schätzer für zufällige Effekte bezeichnet wird.

GLS-Perspektive

Betrachte das lineare Modell Wenn , könnten wir das Modell einfach durch gepooltes OLS abschätzen , was bedeutet, die Paneldatenstruktur zu ignorieren und einfach alle Beobachtungen zusammenzufassen .

yit=α+Xitβ+uiti=1,,m,t=1,,T
E(uit|Xit)=0n=mT

Wir modellieren das mit dem Fehlerkomponentenmodelluit

uit=ηi+ϵit

In Matrixnotation kann das Modell wie folgt geschrieben werden wo und sind -Vektoren mit typischen Elemente und , und ist eine Matrix (eine Spalte pro Einheit) von Dummy-Variablen. ist so, dass, wenn eine Zeile einer Beobachtung entspricht, die zur Einheit , eine Eins in Spalte und 0 hat, sonst .

y=αιmT+Xβ+Dη+ϵ
yϵnyitϵitDn×mDiDii=1,,m

Wir nehmen weiterhin

E(ϵϵ)=σϵ2I

Der individuelle spezifischen Effekte muss die unabhängig sein . Der Zufallseffektschätzer benötigt jedoch im Gegensatz zu den festen Effekten (wieder ökonometrische Terminologie) zusätzlich die stärkere Annahme, dass Unter dieser Annahme zusammengefasst OLS wäre unvoreingenommen, aber wir können einen GLS-Schätzer ableiten. Es sei angenommen, dass die IID mit dem Mittelwert Null und der Varianz .ηϵit

E(ηi|X)=0
ηiση2

Diese Annahme berücksichtigt den Begriff Zufallseffekte . Unter der Annahme, dass die beiden Fehlerkomponenten unabhängig sind, ist es leicht zu erkennen, dass

Var(uit)=ση2+σϵ2Cov(uit,uis)=ση2Cov(uit,ujs)=0for all ij

Wir erhalten dann die folgende Varianz-Kovarianz-Matrix : Hier ist mit einem Vektor von Einsen. Wir können daher für den GLS-Schätzer benötigen wir . Zu diesem Zweck sei ,n×nΩ

Ω=(ΣOOOΣOOOΣ)
Σ=ση2ιι+σϵ2IT
ιT
Ω=ση2(Imιι)+σϵ2(ImIT)
β^RE=(XΩ1X)1XΩ1y
Ω1JT=ιιJ¯T=JT/TET=ITJ¯T . Dann schreiben Sie oder Sammeln von Begriffen mit den gleichen Matrizen, Idempotenz von und erlauben uns dann zu zeigen, dass wobei .
Ω=Tση2(ImJ¯T)+σϵ2(ImET)+σϵ2(ImJ¯T)
Ω=(Tση2+σϵ2)(ImJ¯T)+σϵ2(ImET)
P=ImJ¯TQ=ImET
Ω1=1σ12P+1σϵ2Q=ση2σ12σϵ2(Imιι)+1σϵ2(ImIT),
σ12=Tση2+σϵ2

Gauss-Markov - Logik dann erklärt , warum die zufälligen Effekte Schätzer nützlich sein kann, da es ein effizienter Schätzer als gepoolte OLS oder feste Effekte unter den gegebenen Annahmen ( zur Verfügung gestellt, das ein sehr großen , wenn in vielen Panel - Daten - Anwendungen ist, dass die sind in der Tat nicht mit den Regressoren ). Kurz gesagt, GLS ist effizienter, da die Fehlerkovarianzmatrix in diesem Modell nicht homoskedastisch ist.ηi

Man kann zeigen, dass die GLS-Schätzung erhalten werden kann, indem OLS für die teilweise erniedrigten Daten ausgeführt wird: wobei . Für erhält man den Schätzer für den festen Effekt ("innerhalb"). Für erhält man den "between" -Schätzer. Der GLS-Schätzer ist ein gewichteter Durchschnitt zwischen den beiden. (Für erhält man den gepoolten OLS-Schätzer.)

(yitθy¯i)=(XitθX¯i)β+(uitθui),
θ=1ση/σ1θ=1θθ=0

Machbares GLS

Um einen FGLS-Ansatz praktikabel zu machen, benötigen wir Schätzer für und . Baltagi, Ökonometrische Analyse von Paneldaten, S. 16 (zitiert aus der 3. Ausgabe) werden die folgenden Optionen für das weitere Vorgehen erläutert.σ12σϵ2

Angenommen, wir beobachten zuerst . Dann,uit

σ^12=T1mi=1mu¯i2
und wäre ein guter Schätzer für ihre Parameter, wobei der Zeitdurchschnitt ist, der den Beobachtungen der Einheit entspricht .
σ^ϵ2=1m(T1)i=1mt=1T(uit1mi=1mu¯i)2
u¯ii

Der Ansatz von Wallace und Hussein (1969) besteht darin, durch Reste einer gepoolten OLS-Regression zu ersetzen (die nach den gegenwärtigen Annahmen immer noch unvoreingenommen und konsistent ist).u

Der Ansatz von Amemiya (1971) schlägt vor, stattdessen FE- (oder LSDV-) Residuen zu verwenden. Aus rechnerischen wir die Einschränkung fest, dass , um die Dummy-Variablenfalle zu umgehen, damit wobei Durchschnittswert über und für die LSDV-Residuen angibt. hatu .iηi=0α^=y¯X¯β^FEitu^=yα^Xβ^FE

Der Standardansatz von Swamy und Arora (1972) schätzt und Hier ist .

σ^ϵ2=[yQ(IX(XQX)1XQ)y]/[m(T1)K]
σ^12=[yP(IZ(ZPX)1ZP)y]/[mK1]
Z=(ιmTX)

Der Ansatz von Nerlove (1971) schätzt aus wobei sind Dummies aus einer Regression mit festen Effekten, und wird aus den restlichen Quadratsummen dieser Regression mit im Nenner geschätzt .ση2i=1m(η^iη^¯)2/(m1)η^iσ^ϵ2mT

Ich bin auch sehr überrascht, dass diese einen so großen Unterschied ausmachen, wie Randels Berechnungen zeigen!

BEARBEITEN:

In Bezug auf die Unterschiede können die Schätzungen der Fehlerkomponenten im plmPaket abgerufen werden und liefern in der Tat sehr unterschiedliche Ergebnisse. Dies erklärt den Unterschied in den Punktschätzungen für (gemäß der Antwort von @ Randel). Es wird ein Fehler ausgegeben, den ich nicht versucht habe Fix):βamemiya

> ercomp(stackY~stackX, data = paneldata, method = "walhus")
                  var std.dev share
idiosyncratic 21.0726  4.5905 0.981
individual     0.4071  0.6380 0.019
theta:  0.06933  
> ercomp(stackY~stackX, data = paneldata, method = "swar")
                 var std.dev share
idiosyncratic 0.6437  0.8023 0.229
individual    2.1732  1.4742 0.771
theta:  0.811  
> ercomp(stackY~stackX, data = paneldata, method = "nerlove")
                   var  std.dev share
idiosyncratic   0.5565   0.7460 0.002
individual    342.2514  18.5000 0.998
theta:  0.9857  

Ich vermute, dass die Schätzer der Fehlerkomponenten auch in meinem Beispiel im Schwesterthread nicht konsistent sind, wo ich Unterschiede zwischen FE und RE anhand von Daten demonstrieren möchte, bei denen die einzelnen Effekte und korrelieren. (Tatsächlich können sie es nicht sein, weil sie letztendlich die RE-Schätzung von der FE-Schätzung aufgrund der Tatsache, dass RE ein gewichteter Durchschnitt von FE ist, und zwischen der Schätzung mit Gewichten, die durch die Fehlerkomponentenschätzungen bestimmt werden, entfernen. Wenn also RE dies nicht ist konsistent, das muss letztendlich an diesen Schätzungen liegen.)X

Wenn Sie die "beleidigende" Funktion dieses Beispiels ersetzen,

alpha = runif(n,seq(0,step*n,by=step),seq(step,step*n+step,by=step))

einfach sagen,

alpha = runif(n)

Zufällige Effekte, die nicht mit korreliert sind , führen zu RE-Punktschätzungen für sehr nahe am wahren Wert für alle Varianten der Schätzung der Fehlerkomponenten.Xββ=1


Verweise

Amemiya, T., 1971, Die Schätzung der Varianzen in einem Varianzkomponentenmodell , International Economic Review 12, 1–13.

Baltagi, BH, Ökonometrische Analyse von Paneldaten, Wiley.

Nerlove, M., 1971a, Weitere Hinweise zur Abschätzung dynamischer wirtschaftlicher Beziehungen aus einer Zeitreihe von Querschnitten , Econometrica 39, 359–382.

Swamy, PAVB und SS Arora, 1972, Die genauen Eigenschaften endlicher Stichproben der Koeffizientenschätzer in den Fehlerkomponenten-Regressionsmodellen , Econometrica 40, 261–275.

Wallace, TD und A. Hussain, 1969, Die Verwendung von Fehlerkomponentenmodellen bei der Kombination von Querschnitts- und Zeitreihendaten , Econometrica 37, 55–72.


4
+1. Danke Christoph, das ist hilfreich und ich freue mich, endlich einige mathematische Details in diesem Thread zu sehen. Es wäre großartig, nachzusehen, wie die vier plmvon Randel implementierten und aufgelisteten Methoden funktionieren, und Ihre Antwort mit einigen Kommentaren zu aktualisieren. Wenn nicht die detaillierten Beschreibungen, dann zumindest ein paar kurze Notizen darüber, was los ist. Glaubst du, du könntest es nachschlagen? Gerne biete ich dafür ein Kopfgeld an :-) Mein naiver Ansatz wäre es, beide Sigmas aus der Fixed-Effects-Lösung abzuschätzen. Entspricht es einer der "genannten" Methoden?
Amöbe sagt Reinstate Monica

@amoeba, ich habe einige Kommentare hinzugefügt, wie die Abweichungen im Fehlerkomponentenmodell geschätzt werden können. Ihr Vorschlag scheint dann eng mit dem von Amemiya verwandt zu sein.
Christoph Hanck

Sehr schön danke. Verwendet Nerlove nicht auch Regression bei Dummies? Tatsächlich verstehe ich nicht ganz, was der Unterschied zwischen Amemiya und Nerlove ist. Mein "naiver" Vorschlag war, die Dummy-Regression anzupassen, die Restvarianz als Schätzung von und die Varianz der Dummy-Koeffizienten als Schätzung von . Es sieht so aus, als würde Nerlove das tun. Ich bin nicht sicher, ob ich verstehe, was Amemiya tut und wie es anders ist. (Und ich stimme zu, dass die große Frage, warum diese Methoden in diesem Fall einen solchen Unterschied bewirken, weiterhin besteht.)σϵση
amoeba sagt Reinstate Monica,

Ja, beide verwenden Regression bei Dummies. Soweit ich weiß, ist ein Unterschied zwischen Amemiya und Nerlove der Nenner für die Korrektur der Freiheitsgrade. Ein weiterer Grund ist, dass ich nicht sicher bin, ob die Varianz der geschätzten Dummy-Koeffizienten mit der Varianz der Residuen übereinstimmt. Ein weiterer entscheidender Punkt ist, dass Nerlove direkt darauf abzielt, zu schätzen , wohingegen Sie die Schätzung über für die drei anderen müssten und ein bekannter Nachteil davon ist, dass es keine Garantie gibt, dass diese nicht negativ sind. ση2(σ^12σ^ϵ2)/T
Christoph Hanck

1
Vielen Dank. Ich habe eine Änderung vorgenommen, um eine explizitere Formel für bereitzustellen. Möglicherweise möchten Sie dies noch einmal überprüfen (aber ich denke, es ist korrekt). Ich habe ein Kopfgeld angefangen, das ich Ihrer Antwort zuschreiben werde. Ich bin jedoch immer noch auf der Suche nach einer Antwort, die eine Verbindung zu gemischten Modellen herstellt, GLS und MLE gegenüberstellt und erklärt, warum und wann man welchen Ansatz bevorzugen sollte (keine der aktuellen Antworten tut dies, daher gibt es derzeit keine Antwort, die ich geben würde als "akzeptiert" markieren). Es ist interessant, dass MLE (wie von implementiert ) Varianzschätzungen liefert, die den von Nerlove sehr nahe kommen. Ω1lmer
Amöbe sagt Reinstate Monica

11

Ich bin mit R nicht wirklich vertraut genug, um Ihren Code zu kommentieren, aber das einfache gemischte Zufallsschnittmodell sollte mit dem RE MLE-Schätzer identisch und dem RE GLS-Schätzer sehr ähnlich sein, außer wenn die Summe klein ist und Die Daten sind unausgeglichen. Hoffentlich ist dies bei der Diagnose des Problems hilfreich. Dies setzt natürlich voraus, dass der RE-Schätzer angemessen ist.N=iTi

Hier sind einige Daten, die die Äquivalenz zeigen (erfordert esttabund eststovon SSC):

set more off
estimates clear
webuse nlswork, clear
eststo, title(mixed): mixed ln_w grade age c.age#c.age ttl_exp tenure c.tenure#c.tenure || id: // Mixed estimator
eststo, title(MLE): xtreg ln_w grade age c.age#c.age ttl_exp tenure c.tenure#c.tenure, i(id) mle // MLE RE estimator 
eststo, title(GLS): xtreg ln_w grade age c.age#c.age ttl_exp tenure c.tenure#c.tenure, i(id) re // GLS RE estimato
esttab *, b(a5) se(a5) mtitle 

Hier ist die Ausgabe der letzten Zeile:

. esttab *, b(a5) se(a5) mtitle 

------------------------------------------------------------
                      (1)             (2)             (3)   
                    mixed             MLE             GLS   
------------------------------------------------------------
main                                                        
grade            0.070790***     0.070790***     0.070760***
              (0.0017957)     (0.0017957)     (0.0018336)   

age              0.031844***     0.031844***     0.031906***
              (0.0027201)     (0.0027202)     (0.0027146)   

c.age#c.age   -0.00065130***  -0.00065130***  -0.00065295***
             (0.000044965)    (0.000044971)    (0.000044880)   

ttl_exp          0.035228***     0.035228***     0.035334***
              (0.0011382)     (0.0011392)     (0.0011446)   

tenure           0.037134***     0.037134***     0.037019***
              (0.0015715)     (0.0015723)     (0.0015681)   

c.tenure#c~e   -0.0018382***   -0.0018382***   -0.0018387***
             (0.00010128)    (0.00010128)    (0.00010108)   

_cons             0.14721***      0.14721***      0.14691** 
               (0.044725)      (0.044725)      (0.044928)   
------------------------------------------------------------
lns1_1_1                                                    
_cons            -1.31847***                                
               (0.013546)                                   
------------------------------------------------------------
lnsig_e                                                     
_cons            -1.23024***                                
              (0.0046256)                                   
------------------------------------------------------------
sigma_u                                                     
_cons                             0.26754***                
                              (0.0036240)                   
------------------------------------------------------------
sigma_e                                                     
_cons                             0.29222***                
                              (0.0013517)                   
------------------------------------------------------------
N                   28099           28099           28099   
------------------------------------------------------------
Standard errors in parentheses
* p<0.05, ** p<0.01, *** p<0.001

In Ihren Daten sind die Annahmen für die Verwendung des RE-Schätzers nicht erfüllt, da der Gruppeneffekt eindeutig mit x korreliert ist, sodass Sie sehr unterschiedliche Schätzungen erhalten. Der GLS RE-Schätzer ist ein allgemeiner Schätzer für Momente (GMM), der ein matrixgewichteter Durchschnitt zwischen und innerhalb von Schätzern ist. Der innere Schätzer wird hier in Ordnung sein, aber das Dazwischen wird zutiefst durcheinander geraten, was große positive Auswirkungen von X zeigt. GLS wird also hauptsächlich der mittlere Schätzer sein. Das MLE RE ist ein MLE, das die Wahrscheinlichkeit des Zufallseffektmodells maximiert. Es wird nicht mehr erwartet, dass sie dieselbe Antwort liefern. Hier gibt der gemischte Schätzer etwas sehr nahes an den FE "Within" Schätzer:

. esttab *, b(a5) se(a5) mtitle 

----------------------------------------------------------------------------
                      (1)             (2)             (3)             (4)   
                    mixed             GLS             MLE          Within   
----------------------------------------------------------------------------
main                                                                        
x                -1.02502***      0.77031**       3.37983***     -1.04507***
               (0.092425)       (0.26346)       (0.20635)      (0.093136)   

_cons             30.2166***      18.3459***      0.49507         30.3492***
                (5.12978)       (2.31566)             (.)       (0.62124)   
----------------------------------------------------------------------------
lns1_1_1                                                                    
_cons             2.87024***                                                
                (0.20498)                                                   
----------------------------------------------------------------------------
lnsig_e                                                                     
_cons            -0.22598**                                                 
               (0.077195)                                                   
----------------------------------------------------------------------------
sigma_u                                                                     
_cons                                             2.40363                   
                                                (1.28929)                   
----------------------------------------------------------------------------
sigma_e                                                                     
_cons                                             4.23472***                
                                                (0.37819)                   
----------------------------------------------------------------------------
N                      96              96              96              96   
----------------------------------------------------------------------------
Standard errors in parentheses
* p<0.05, ** p<0.01, *** p<0.001

Hier ist der Stata-Code für die obige Tabelle:

clear
set more off
estimates clear

input int(obs id t) double(y x)
1      1           1  2.669271  0.5866982
2      1           2  1.475540  1.3500454
3      1           3  4.430008  0.6830919
4      1           4  2.162789  0.5845966
5      1           5  2.678108  1.0038879
6      1           6  3.456636  0.5863289
7      1           7  1.769204  2.3375403
8      1           8  3.413790  0.9640034
9      2           1  4.017493  1.5084121
10     2           2  4.218733  2.8982499
11     2           3  4.509530  3.2141335
12     2           4  6.106228  2.0317799
13     2           5  5.161379  2.1231733
14     2           6  2.724643  4.3369017
15     2           7  4.500306  1.9141065
16     2           8  4.119322  2.8667938
17     3           1  9.987779  2.3961969
18     3           2  7.768579  3.5509275
19     3           3  9.379788  3.3284869
20     3           4 10.035937  2.2997389
21     3           5 11.752360  2.8143474
22     3           6  9.500264  2.1825704
23     3           7  8.921687  5.0126462
24     3           8  8.269932  3.4046339
25     4           1 12.101253  3.2928033
26     4           2 11.482337  3.1645218
27     4           3 10.648010  4.8073987
28     4           4  9.687320  5.3394193
29     4           5 12.796925  3.1197431
30     4           6  9.971434  4.6512983
31     4           7 10.239717  4.7709378
32     4           8 12.245207  2.7952426
33     5           1 18.473320  5.8421967
34     5           2 19.097212  4.9425391
35     5           3 19.460495  4.9166172
36     5           4 18.642305  4.9856035
37     5           5 17.723912  5.0594425
38     5           6 16.783248  4.8615618
39     5           7 16.100984  6.2069167
40     5           8 18.851351  3.8856152
41     6           1 19.683171  7.5568816
42     6           2 21.104231  6.7441900
43     6           3 22.115529  6.4486514
44     6           4 22.061362  5.3727434
45     6           5 22.457905  5.8665798
46     6           6 21.424413  6.0578997
47     6           7 23.475946  4.4024323
48     6           8 24.884950  4.1596914
49     7           1 25.809011  7.6756255
50     7           2 25.432828  7.7910756
51     7           3 26.790387  7.3858301
52     7           4 24.640850  8.2090606
53     7           5 26.050086  7.3779219
54     7           6 25.297148  6.8098617
55     7           7 26.551229  7.6694272
56     7           8 26.669760  6.4425772
57     8           1 26.409669  8.3040894
58     8           2 26.570003  8.4686087
59     8           3 29.018818  7.2476785
60     8           4 30.342613  4.5207729
61     8           5 26.819959  8.7935557
62     8           6 27.147711  8.3141224
63     8           7 26.168568  9.0148308
64     8           8 27.653552  8.2081808
65     9           1 34.120485  7.8415520
66     9           2 31.286463  9.7234259
67     9           3 35.763403  6.9202442
68     9           4 31.974599  9.0078286
69     9           5 32.273719  9.4954288
70     9           6 29.666208 10.2525763
71     9           7 30.949857  9.4751679
72     9           8 33.485967  8.1824810
73    10           1 36.183128 10.7891587
74    10           2 37.706116  9.7119548
75    10           3 38.582725  8.6388290
76    10           4 35.876781 10.8259279
77    10           5 37.111179  9.9805046
78    10           6 40.313149  7.7487456
79    10           7 38.606329 10.2891107
80    10           8 37.041938 10.3568765
81    11           1 42.617586 12.1619185
82    11           2 41.787495 11.1420338
83    11           3 43.944968 11.1898730
84    11           4 43.446467 10.8099599
85    11           5 43.420819 11.2696770
86    11           6 42.367318 11.6183869
87    11           7 43.543785 11.1336555
88    11           8 43.750271 12.0311065
89    12           1 46.122429 12.3528733
90    12           2 47.604306 11.4522787
91    12           3 45.568748 13.6906476
92    12           4 48.331177 12.3561907
93    12           5 47.143246 11.7339915
94    12           6 44.461190 13.3898768
95    12           7 46.879044 11.4054972
96    12           8 46.314055 12.3143487
end

eststo, title(mixed): mixed y x || id:, mle // Mixed estimator
eststo, title(GLS): xtreg y x, i(id) re     // GLS RE estimato
eststo, title(MLE): xtreg y x, i(id) mle    // MLE RE estimator 
eststo, title(Within): xtreg y x, i(id) fe  // FE Within estimator 
eststo, title(Between): xtreg y x, i(id) be // Between estimator 

esttab *, b(a5) se(a5) mtitle 

+1. Danke, Dimitriy, es ist auf jeden Fall hilfreich, die Ausgabe von Stata auf demselben Spielzeugdatensatz zu sehen. Ich habe eine Frage zu MLE Estimator. Ich dachte, dass der gemischte Modellansatz ( mixedin Stata und lmerin R) auch die maximale Wahrscheinlichkeit oder manchmal die "eingeschränkte maximale Wahrscheinlichkeit" ist (ich kann beides in meinem lmerAufruf verwenden, indem ich REML=Toder setze REML=Fund sie geben fast identische Ergebnisse). Ein gemischter Modellansatz liefert jedoch ein sehr vernünftiges und korrektes Ergebnis, während das, was Stat "MLE" nennt, in diesem Fall ein unsinniges Ergebnis liefert. Was ist der Unterschied? Worauf bezieht sich Stat's "MLE" genau?
Amöbe sagt Reinstate Monica

2
@amoeba Beide mixed, mleund xtreg, mlesind MLE-Schätzer, aber die Wahrscheinlichkeitsfunktionen sind etwas unterschiedlich. Sehen Sie hier für die ersteren und hier für die letzteren. Ich verstehe nicht ganz, warum das mixedModell so robust ist.
Dimitriy V. Masterov

xtmixed wurde in älteren Versionen von Stata als gemischt bezeichnet. Für Ihre Daten gilt diese Äquivalenz eindeutig nicht, während sie für meine Daten gilt, wie im Handbuch vorgeschlagen wird.
Dimitriy V. Masterov

ssc install estoutObwohl ich mich erinnere, dass es in verschiedenen Versionen unterschiedliche Funktionen hatte und nicht abwärtskompatibel war.
StasK

1
@StasK hat mich mit dem technischen Support von Stata in Kontakt gebracht und sie sagten, dass es wahrscheinlich ein Fehler in ist xtreg, mle. "Im Allgemeinen sollte das Ergebnis dasselbe sein. Diese Art von Unterschieden tritt normalerweise auf, wenn es Identifikationsprobleme bei der Schätzung der Parameter des Modells gibt. [...] Ich habe tatsächlich die Bedingungsnummer für die Varianz überprüft Die Kovarianzmatrix, die sich aus beiden Berechnungen und dieser Zahl ergibt, ist grundsätzlich unendlich für -xtreg, mle- und über 4000 für -mixed, mle-. [...] Die Entwickler werden das Problem bewerten, um festzustellen, ob ein fester Code ist erforderlich. "
Amöbe sagt Reinstate Monica

9

Lassen Sie mich die Dinge noch mehr verwirren:

ÖKONOMETRIE - ANSATZ FESTER EFFEKTE
Der Ansatz "Feste Effekte" in der Ökonometrie für Paneldaten ist eine Möglichkeit, die Steigungskoeffizienten (die Betas) zu schätzen, indem die Existenz der Variablen für einzelne Effekte " wird und nicht Annahme, ob es "fest" oder "zufällig" ist. Dies ist, was der "First Difference" -Schätzer (unter Verwendung erster Unterschiede der Daten) und der "Within" -Schätzer (unter Verwendung von Abweichungen von Zeitdurchschnitten) tun: Sie schaffen es, nur die Betas zu schätzen.αi

Für einen traditionelleren Ansatz, bei dem die einzelnen Effekte (die "Abschnitte") explizit als Konstanten behandelt werden, verwenden wir den LSDV - Schätzer (Least Squares Dummy Variable), der auch Schätzungen für die - Note liefert : Im linearen Modell wird die Drei Schätzer stimmen algebraisch in Bezug auf die erstellten Schätzungen für die Betas überein - jedoch nur im linearen Modell.αi

Diskussion (teilweise aus der Vorlesung entnommen)

"Der Hauptvorteil des Ansatzes mit festen Effekten besteht darin, dass wir keine Annahmen über die Art der einzelnen Effekte treffen müssen. Wir sollten ihn immer dann anwenden, wenn wir den Verdacht haben, dass letztere mit einem oder mehreren der Regressoren korrelieren, da in diesem Fall Das Ignorieren einer solchen Korrelation und die naive Anwendung von OLS auf das gepoolte Modell stellen inkonsistente Schätzer dar. Trotz seiner Attraktivität aufgrund der minimalen Annahmen, die wir in Bezug auf die einzelnen Effekte treffen müssen, unterliegt der Ansatz mit festen Effekten bestimmten Einschränkungen invariante Regressoren können nicht geschätzt werden, da diese Variablen zusammen mit den nicht beobachtbaren individuellen Effekten differenziert werden.Die einzelnen Effekte (falls wir den LSDV-Schätzer verwenden) können nicht konsistent geschätzt werden (außer wenn wir die Zeitdimension auf unendlich setzen). "

ÖKONOMETRIE - ANSATZ ZUFÄLLIGER EFFEKTE
Beim Ansatz "traditioneller" ökonometrischer Zufallseffekte gehen wir davon aus, dass die einzelnen "Abschnitte" "permanente zufällige Komponenten" sind, während die "üblichen" Fehlerausdrücke "vorübergehende" Fehlerkomponenten sind.αi

In einer interessanten Erweiterung ergibt sich die zusätzliche Zufälligkeit aus dem Vorhandensein eines zufälligen Zeiteffekts , der allen Querschnitten gemeinsam ist, sich jedoch zeitlich ändert , zusammen mit einem festen (konstanten) Einzeleffekt und dem Fehlerterm. Dieser "Zeiteffekt" kann beispielsweise einen gesamtwirtschaftlichen Schock darstellen, der alle Haushalte gleichermaßen betrifft. Solche aggregierten Störungen werden in der Tat beobachtet und es scheint daher eine realistische Modellierungsentscheidung zu sein.

Hier ist der "Random Effects" -Schätzer ein Schätzer für verallgemeinerte kleinste Quadrate (GLS), um die Effizienz zu erhöhen.

Nun führt ein weiterer Schätzer, der "Zwischen" -Schätzer, OLS für die zeitgemittelten Beobachtungen durch. Als eine Frage der Algebra wurde gezeigt, dass der GLS-Schätzer als ein gewichteter Durchschnitt der Schätzer "Innerhalb" und "Zwischen" erhalten werden kann, wobei die Gewichte nicht willkürlich sind, sondern sich auf die VCV-Matrizen der beiden beziehen.

... und es gibt auch die Varianten der Modelle "Uncorrelated Random Effects" und "Correlated Random Effects".

Ich hoffe, dass das oben Genannte dazu beiträgt, den Kontrast zu den "Mixed Effects" -Modellen herzustellen.


+1, danke Alecos. Dies ist hilfreich, aber der Zusammenhang zwischen all dem und dem Ansatz mit gemischten Modellen bleibt mir unklar. Ich beginne zu vermuten, dass vielleicht überhaupt keine Beziehung besteht. Die Schätzer zwischen und innerhalb (und dass das Innere den Klassenattrappen entspricht) sind übrigens klar; In meiner Verwirrung geht es nur um den Zufallseffekt-Ansatz.
Amöbe sagt Reinstate Monica
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.