Fallstricke linearer Mischmodelle


18

Was sind einige der Hauptprobleme bei der Verwendung linearer Modelle mit gemischten Effekten? Was sind die wichtigsten Dinge, auf die Sie achten müssen, um die Angemessenheit Ihres Modells zu beurteilen? Nach welchen wichtigen Dingen muss beim Vergleich von Modellen desselben Datensatzes gesucht werden?

Antworten:


16

Das ist eine gute Frage.

Hier sind einige häufige Fallstricke:

  1. Unter Verwendung der Standardwahrscheinlichkeitstheorie können wir einen Test ableiten, um zwei verschachtelte Hypothesen, und H 1 , zu vergleichen , indem wir die Likelihood-Ratio-Teststatistik berechnen. Die Nullverteilung dieser Teststatistik ist ungefähr ein Chi-Quadrat mit Freiheitsgraden, die der Differenz in den Dimensionen der beiden Parameterräume entsprechen. Leider ist dieser Test nur ungefähr und erfordert mehrere Annahmen. Eine entscheidende Annahme ist, dass sich die Parameter unter der Null nicht an der Grenze des Parameterraums befinden. Da wir oft daran interessiert sind, Hypothesen über die zufälligen Effekte zu testen, die die Form haben: H 0 : σ 2 = 0 Dies ist ein echtes Problem.H0H1

    H0:σ2=0
    Der Weg, um dieses Problem zu umgehen, ist die Verwendung von REML. Trotzdem sind die p-Werte tendenziell größer als sie sein sollten. Dies bedeutet, dass Sie ziemlich sicher sein können, dass ein signifikanter Effekt tatsächlich signifikant ist, wenn Sie die χ2-Näherung verwenden. Kleine, aber nicht signifikante p-Werte können dazu führen, dass genauere, aber zeitaufwändige Bootstrap-Methoden verwendet werden.
  2. Feste Effekte vergleichen: Wenn Sie den Likelihood-Ratio-Test verwenden möchten, um zwei verschachtelte Modelle zu vergleichen, die sich nur in ihren festen Effekten unterscheiden, können Sie die REML-Schätzmethode nicht verwenden. Der Grund dafür ist, dass REML die Zufallseffekte durch Berücksichtigung linearer Kombinationen der Daten abschätzt, die die festen Effekte entfernen. Wenn diese festen Effekte geändert werden, sind die Wahrscheinlichkeiten der beiden Modelle nicht direkt vergleichbar.

  3. P-Werte: Die durch den Likelihood-Ratio-Test für feste Effekte erzeugten p-Werte sind ungefähr und neigen leider dazu, zu klein zu sein, wodurch manchmal die Bedeutung einiger Effekte überbewertet wird. Wir können nichtparametrische Bootstrap-Methoden verwenden, um genauere p-Werte für den Likelihood-Ratio-Test zu ermitteln.

  4. Es gibt andere Bedenken hinsichtlich der p-Werte für den Fixeffekttest, die von Dr. Doug Bates [ hier ] hervorgehoben werden.

Ich bin sicher, dass andere Mitglieder des Forums bessere Antworten haben werden.

Quelle: Erweiterung linearer Modelle mit R - Dr. Julain Faraway.


9

Die übliche Falle, die ich sehe, ist das Ignorieren der Varianz zufälliger Effekte. Wenn sie im Vergleich zur Restvarianz oder Varianz der abhängigen Variablen groß ist, sieht die Anpassung normalerweise gut aus, aber nur, weil zufällige Effekte die gesamte Varianz ausmachen. Aber da die Grafik von tatsächlichen vs vorhergesagten gut aussieht, neigen Sie dazu zu denken, dass Ihr Modell gut ist.

Alles fällt auseinander, wenn ein solches Modell zur Vorhersage neuer Daten verwendet wird. Normalerweise kann man dann nur feste Effekte verwenden und die Passform kann sehr schlecht sein.


6

Die Modellierung der Varianzstruktur ist wohl das mächtigste und wichtigste Einzelmerkmal gemischter Modelle. Dies geht über die Varianzstruktur hinaus und schließt die Korrelation zwischen Beobachtungen ein. Es muss sorgfältig darauf geachtet werden, eine geeignete Kovarianzstruktur aufzubauen, da andernfalls die Prüfung von Hypothesen, Konfidenzintervallen und Schätzungen der Behandlungsmittel möglicherweise nicht gültig ist. Oft braucht man Kenntnisse über das Experiment, um die richtigen Zufallseffekte zu bestimmen.

SAS für gemischte Modelle ist meine Ressource, auch wenn ich die Analyse in R ausführen möchte.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.