Warum werden zufällige Effekte auf 0 geschrumpft?


10

Gibt es einen intuitiven Grund dafür, dass zufällige Effekte im allgemeinen linearen gemischten Modell auf ihren erwarteten Wert geschrumpft werden?


Können Sie bitte mehr Kontext für diese Frage angeben?
Makro

Vorausgesagte Werte aus Zufallseffektmodellen sind Schrumpfungsschätzer . Wenn die statistischen Einheiten unterschiedlich sind, wenn die Messungen genau sind oder wenn eine große Stichprobe vorliegt, tritt nur eine geringe Schrumpfung auf. Ist es das, wonach Sie suchen, oder meinen Sie wirklich eine Schrumpfung in Richtung des erwarteten Werts?
Chl

3
Ich würde einen älteren Artikel von Bradley Efron und Carl Morris, Steins Paradox in Statistics (1977), vorschlagen (ein Online- PDF ist hier ). Ich bin mir nicht sicher, ob es intuitiv ist, aber es ist eine ziemlich sanfte Einführung (mit Beispielen aus der Praxis) in das Konzept des Schrumpfens.
Andy W

Antworten:


4

Im Allgemeinen treten die meisten "zufälligen Effekte" in Situationen auf, in denen es auch einen "festen Effekt" oder einen anderen Teil des Modells gibt. Das allgemeine lineare gemischte Modell sieht folgendermaßen aus:

yi=xiTβ+ziTu+ϵi

Wobei die "festen Effekte" und die "zufälligen Effekte" sind. Es ist klar, dass die Unterscheidung nur auf konzeptioneller Ebene oder in der Methode zur Schätzung von und . Denn wenn ich einen neuen "festen Effekt" definiere und dann I. eine gewöhnliche lineare Regression haben:βuuβx~i=(xiT,ziT)Tβ~=(βT,uT)T

yi=x~iTβ~+ϵi

Dies ist oft ein echtes praktisches Problem, wenn es darum geht, gemischte Modelle anzupassen, wenn die zugrunde liegenden konzeptionellen Ziele nicht klar sind. Ich denke , die Tatsache , dass die zufälligen Effekte sind in Richtung auf Null geschrumpft, und dass die festen Effekte sind nicht hier etwas Hilfe zur Verfügung stellt. Dies bedeutet, dass wir tendenziell das Modell bevorzugen, bei dem nur enthalten ist (dh ), wenn die Schätzungen von in der OLS-Formulierung eine geringe Genauigkeit aufweisen, und dass wir die vollständige OLS-Formulierung bevorzugen, wenn die Schätzungen eine hohe Genauigkeit aufweisen.u β βu=0uu


2

Beantwortet sich Ihre Frage nicht von selbst? Wenn ein Wert erwartet wird, ist eine Technik am besten, die Werte näher bringt.

Eine einfache Antwort ergibt sich aus dem Gesetz der großen Zahlen. Angenommen, Themen sind Ihr zufälliger Effekt. Wenn Sie die Probanden A bis D in 200 Studien und die Probanden E in 20 Studien durchführen, welche der gemessenen Durchschnittsleistungen des Probanden ist Ihrer Meinung nach repräsentativer für mu? Das Gesetz der großen Zahlen würde vorhersagen, dass die Leistung von Subjekt E mit größerer Wahrscheinlichkeit um einen größeren Betrag von mu abweicht als die von A bis D. Es kann oder kann nicht und jedes der Subjekte könnte abweichen, aber wir wären viel mehr Es ist gerechtfertigt, die Wirkung von Subjekt E gegenüber A bis D des Subjekts zu verringern, als umgekehrt. Zufällige Effekte, die größer sind und kleinere N haben, sind daher diejenigen, die am meisten geschrumpft sind.

Aus dieser Beschreibung ergibt sich auch, warum feste Effekte nicht verkleinert werden. Weil sie repariert sind, gibt es nur eine im Modell. Sie haben keinen Hinweis darauf, es zu verkleinern. Sie könnten eine Steigung von 0 als Referenz verwenden, aber darauf werden zufällige Effekte nicht reduziert. Sie sind in Richtung einer Gesamtschätzung wie mu. Der feste Effekt, den Sie von Ihrem Modell haben, ist diese Schätzung.


1

Ich denke, es könnte für Ihre Intuition hilfreich sein, sich ein gemischtes Modell als hierarchisches oder mehrstufiges Modell vorzustellen . Zumindest für mich ist es sinnvoller, wenn ich an Verschachtelung denke und wie das Modell innerhalb und zwischen Kategorien auf hierarchische Weise funktioniert.

EDIT: Makro, ich hatte dies ein wenig offen gelassen, weil es mir hilft, es intuitiver zu betrachten, aber ich bin nicht sicher, ob es richtig ist. Aber um es in möglicherweise falsche Richtungen zu erweitern ...

Ich betrachte es als feste Effekte, die über Kategorien gemittelt werden, und zufällige Effekte, die zwischen Kategorien unterscheiden. In gewissem Sinne sind die zufälligen Effekte "Cluster", die einige Merkmale gemeinsam haben, und größere und kompaktere Cluster haben einen größeren Einfluss auf den Durchschnitt auf der höheren Ebene.

Wenn OLS die Anpassung vornimmt (glaube ich in Phasen), ziehen größere und kompaktere "Cluster" mit zufälligen Effekten die Anpassung stärker zu sich selbst, während kleinere oder diffusere "Cluster" die Anpassung weniger ziehen. Oder vielleicht beginnt die Anpassung näher an größeren und kompakteren "Clustern", da der übergeordnete Durchschnitt zunächst näher liegt

Entschuldigung, ich kann nicht klarer sein und kann sogar falsch liegen. Es macht für mich intuitiv Sinn, aber wenn ich versuche, es zu schreiben, bin ich mir nicht sicher, ob es sich um eine Top-Down- oder Bottom-Up-Sache handelt oder um etwas anderes. Geht es darum, dass "Cluster" auf niedrigerer Ebene stärker zu sich selbst passen oder dass sie einen größeren Einfluss auf die Mittelwertbildung auf höherer Ebene haben - und somit näher am Durchschnitt auf höherer Ebene "enden" - oder auch nicht?

In beiden Fällen ist dies meines Erachtens eine Erklärung dafür, warum kleinere, diffusere Kategorien von Zufallsvariablen weiter in Richtung Mittelwert gezogen werden als größere, kompaktere Kategorien.


Hallo Wayne, können Sie dies erweitern, um zu beschreiben, wie die Schrumpfung (vielleicht intuitiver) konzeptualisiert werden kann, indem Sie dies als hierarchisches Modell betrachten?
Makro

@ Macro: OK, ich habe es versucht. Ich bin mir jedoch nicht sicher, ob die Antwort dadurch besser oder schlechter wird.
Wayne
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.