Multipler linearer Regressionskoeffizient und partielle Korrelation sind direkt miteinander verknüpft und haben die gleiche Signifikanz (p-Wert). Teil r ist neben dem Beta- Koeffizienten (standardisierter Regressionskoeffizient) nur eine andere Möglichkeit, den Koeffizienten zu standardisieren.. Wenn also die abhängige Variable y ist und die unabhängigenVariablen x 1 und x 2 sind, dann1yx1x2
Beta:βx1=ryx1−ryx2rx1x21−r2x1x2
Partial r:ryx1.x2=ryx1−ryx2rx1x2(1−r2yx2)(1−r2x1x2)−−−−−−−−−−−−−−−−√
Sie sehen, dass die Zähler identisch sind, was darauf hinweist, dass beide Formeln den gleichen eindeutigen Effekt von messen . Ich werde versuchen zu erklären, wie die beiden Formeln strukturell identisch sind und wie sie nicht.x1
Angenommen, Sie haben alle drei Variablen z-standardisiert (Mittelwert 0, Varianz 1). Der Zähler ist dann gleich der Kovarianz zwischen zwei Arten von Residuen : die (a) Residuen, die bei der Vorhersage von durch x 2 übrig sind [Standard für beide Variablen] und die (b) Residuen, die bei der Vorhersage von x 1 durch x 2 übrig sind [Standard für beide Variablen] . Darüber hinaus beträgt die Varianz der Residuen (a) 1 - r 2 y x 2 ; Die Varianz der Residuen (b) beträgt 1 - r 2 x 1 x 2 .yx2x1x21−r2yx21−r2x1x2
Die Formel für die partielle Korrelation ergibt sich dann eindeutig aus der Formel von Pearson , wie sie in diesem Fall zwischen den Residuen (a) und den Residuen (b) berechnet wird: Pearson r ist bekanntlich die Kovarianz dividiert durch den Nenner, der das geometrische Mittel von ist zwei verschiedene Varianzen.rr
Der standardisierte Koeffizient Beta ist strukturell wie Pearson , nur dass der Nenner das geometrische Mittel einer Varianz mit dem eigenen Selbst ist . Die Varianz der Residuen (a) wurde nicht gezählt; es wurde durch eine zweite Zählung der Varianz der Residuen (b) ersetzt. Beta ist also die Kovarianz der beiden Residuen relativ zur Varianz einer von ihnenr (insbesondere derjenigen, die sich auf den interessierenden Prädiktor bezieht ). Während die partielle Korrelation, wie bereits bemerkt, dieselbe Kovarianz relativ zu ihrer hybriden Varianz ist. Beide Arten von Koeffizienten sind Möglichkeiten, den Effekt von x 1 im Milieu anderer Prädiktoren zu standardisieren .x1x1
Einige numerische Konsequenzen des Unterschieds. Wenn das R-Quadrat der multiplen Regression von durch x 1 und x 2 zufällig 1 ist, sind beide Teilkorrelationen der Prädiktoren mit dem abhängigen ebenfalls 1 Absolutwert (aber die Betas sind im Allgemeinen nicht 1). In der Tat, wie zuvor gesagt, r y x 1 . x 2 ist die Korrelation zwischen den Residuen von und den Residuen von . Wenn das, was nicht x 2 in y ist, genau das ist , was nicht x 2 in x 1 istyx1x2ryx1.x2y <- x2
x1 <- x2
x2y x2x1dann gibt es nichts in , das weder x 1 noch x . x 2 wird hoch sein. β x 1yx1 : vollständige Passform. Was auch immer der Betrag des unerklärten (durch x 2 ) Teils ist, der in y (dem 1 - r 2 y x 2 )übrig ist, wenn er relativ stark durch den unabhängigen Teil von x 1 (durch das 1 - r 2 x 1 x erfasst wird 2 ) das r y x 1x2x2y1−r2yx2x11−r2x1x2ryx1.x2βx1Andererseits wird es nur dann hoch sein, wenn der unerklärte Teil von , der erfasst wird, selbst ein wesentlicher Teil von y ist .yy
Aus den obigen Formeln erhält man (und erstreckt sich von einer 2-Prädiktor-Regression zu einer Regression mit einer beliebigen Anzahl von Prädiktoren )die Umwandlungsformel zwischen Beta- und entsprechenden Teil r:x1,x2,x3,...
ryx1.X=βx1var(ex1←X)var(ey←X)−−−−−−−−−−√,
wobei für die Sammlung aller Prädiktoren mit Ausnahme des Stroms ( x 1 ) steht; e y ← X sind die Residuen der Regression von y um X und e x 1 ← XXx1ey←XyXex1←X die Residuen aus Regressing sind durch X , so dass sie die Variablen in diesen beiden Regressionen eingeben standardisiert .x1X
Anmerkung: Wenn wir Teilkorrelationen von y berechnen müsseny mit jedem Prädiktor wird diese Formel normalerweise nicht verwendet, sodass zwei zusätzliche Regressionen erforderlich sind. Vielmehr werden die Sweep-Operationen (häufig in schrittweisen und allen Untersatz-Regressionsalgorithmen verwendet) durchgeführt oder eine Anti-Bild-Korrelationsmatrix berechnet.x
β x 1 = b x1 ist die Beziehung zwischen dem Ausgangβx1=bx1σx1σy und den standardisierten β Koeffizienten in Regression mit intercept.bβ