Eine Parameterschätzung in einem Regressionsmodell (z. B. ) ändert sich, wenn dem Modell eine Variable, , hinzugefügt wird, die: Xjβ^ichXj
- korreliert mit der entsprechenden Variablen dieses Parameters, (die sich bereits im Modell befand) undXich
- korreliert mit der AntwortvariablenY.
Ein geschätztes Beta ändert sich nicht, wenn eine neue Variable hinzugefügt wird, wenn eine der oben genannten nicht korreliert ist. Man beachte , dass , ob sie in der unkorreliert sind Population (dh , oder ) keine Rolle spielt. Entscheidend ist, dass beide Stichprobenkorrelationen genau . Dies ist in der Praxis im Grunde genommen nur dann der Fall, wenn Sie mit experimentellen Daten arbeiten, bei denen die Variablen so manipuliert wurden, dass sie vom Design her nicht korreliert sind. ρ ( X j , Y ) = 0 0ρ( Xich, Xj)= 0 ρ( Xj, Y)= 00
Beachten Sie auch, dass der Betrag, um den sich die Parameter ändern, möglicherweise nicht besonders aussagekräftig ist (dies hängt zumindest teilweise von Ihrer Theorie ab). Darüber hinaus ist der Betrag, um den sie sich ändern können, eine Funktion der Größen der beiden obigen Korrelationen.
Anders ausgedrückt ist es nicht richtig, dieses Phänomen als "den Koeffizienten einer gegebenen Variablen, der durch den Koeffizienten einer anderen Variablen beeinflusst wird" zu betrachten. Es sind nicht die Betas , die sich gegenseitig beeinflussen. Dieses Phänomen ist eine natürliche Folge des Algorithmus, den statistische Software zur Schätzung der Steigungsparameter verwendet. Stellen Sie sich eine Situation vor, in der durch und , die wiederum miteinander korrelieren. Wenn sich nur im Modell befindet, wird ein Teil der Variation in , die auf ist, unangemessenerweise . Dies bedeutet, dass der Wert vonX i X j X i Y X j X i X iY.XichXjXichY.XjXichXichist voreingenommen; Dies wird als ausgelassene variable Vorspannung bezeichnet .
multivariable
Sie damit mehrere unabhängige Variablen ("multiple regression") oder mehrere abhängige Variablen ("multivariate regression" oder "MAN (C) OVA")?