Mir ist klar, dass dies ein (sehr) veralteter Thread ist, aber da mir einer meiner Kollegen diese Woche dieselbe Frage gestellt hat und im Web nichts gefunden hat, auf das ich ihn hinweisen könnte, dachte ich, ich würde meine zwei Cent "für die Nachwelt" hinzufügen. Hier. Ich bin nicht davon überzeugt, dass die bisher gegebenen Antworten die Frage des OP beantworten.
Ich werde das Problem vereinfachen, indem ich nur zwei unabhängige Variablen einbeziehe. Es ist sehr einfach, es auf mehr als zwei zu erweitern. Stellen Sie sich das folgende Szenario vor: Zwei unabhängige Variablen (X1 und X2), eine abhängige Variable (Y), 1000 Beobachtungen, die beiden unabhängigen Variablen sind stark miteinander korreliert (r = 0,99) und jede unabhängige Variable ist mit der abhängigen Variablen korreliert variabel (r = 0,60). Standardisieren Sie alle Variablen ohne Verlust der Allgemeinheit auf einen Mittelwert von Null und eine Standardabweichung von Eins, sodass der Intercept-Term in jeder der Regressionen Null ist.
Wenn Sie eine einfache lineare Regression von Y auf X1 ausführen, erhalten Sie ein r-Quadrat von 0,36 und einen b1-Wert von 0,6. In ähnlicher Weise ergibt das Ausführen einer einfachen linearen Regression von Y auf X2 ein r-Quadrat von 0,36 und einen b1-Wert von 0,6.
Wenn Sie eine multiple Regression von Y auf X1 und X2 ausführen, wird ein r-Quadrat von nur einem kleinen Bit höher als 0,36 erzeugt, und sowohl b1 als auch b2 nehmen den Wert 0,3 an. Somit wird die gemeinsame Variation von Y in BEIDEN b1 und b2 (gleichermaßen) erfasst.
Ich denke, das OP hat möglicherweise eine falsche (aber völlig verständliche) Annahme getroffen: Wenn X1 und X2 immer näher an die perfekte Korrelation heranrücken, kommen ihre b-Werte in der multiplen Regressionsgleichung immer näher an NULL. Das ist nicht der Fall. Wenn X1 und X2 näher und näher an die perfekte Korrelation heranrücken, kommen ihre b-Werte in der multiplen Regression in der einfachen linearen Regression eines von ihnen immer näher an die HÄLFTE des b-Werts heran. Wenn sich X1 und X2 jedoch immer mehr der perfekten Korrelation nähern, bewegt sich der STANDARDFEHLER von b1 und b2 immer näher an die Unendlichkeit, sodass die t-Werte gegen Null konvergieren. Die t-Werte konvergieren also gegen Null (dh keine EINZIGARTIGE lineare Beziehung zwischen X1 und Y oder X2 und Y).
Die Antwort auf die Frage des OP lautet also: Wenn sich die Korrelation zwischen X1 und X2 der Einheit nähert, nähert sich JEDER der partiellen Steigungskoeffizienten gleichermaßen der Vorhersage des Y-Werts an, obwohl keine der unabhängigen Variablen eine EINZIGARTIGE Erklärung für die abhängige bietet Variable.
Wenn Sie dies empirisch überprüfen möchten, generieren Sie einen erstellten Datensatz (... ich habe ein SAS-Makro mit dem Namen Corr2Data.sas ... verwendet), der die oben beschriebenen Eigenschaften aufweist. Überprüfen Sie die b-Werte, die Standardfehler und die t-Werte: Sie werden feststellen, dass sie genau wie hier beschrieben sind.
HTH // Phil