Vorzeichenwechsel beim Hinzufügen einer weiteren Variablen in der Regression und mit viel größerer Größe


9

Grundeinstellung:

Regressionsmodell: wobei C der Vektor der Kontrollvariablen ist.y=constant+β1x1+β2x2+β3x3+β4x4+αC+ϵ

Ich interessiere mich für und erwarte, dass und negativ sind. Es gibt jedoch ein Multikollinearitätsproblem im Modell. Der Korrelationskoeffizient ist gegeben durch corr ( , 0,9345, corr ( , x_3) = 0,1765, corr ( x_2 , x_3) = 0,3019.β 1 β 2 x 1 x 2 ) =ββ1β2x1x2)=x1x3)=x2x3)=

So x1 und x2 stark korreliert sind , und sie sollten nahezu die gleichen Informationen zur Verfügung stellen. Ich führe drei Regressionen durch:

  1. ausschließen x1 variabel; 2. x2 Variable ausschließen; 3. Originalmodell mit x1 und x2 .

Ergebnisse:
Für Regression 1 und 2 wird das erwartete Vorzeichen für β2 bzw. β1 mit ähnlicher Größe angegeben. Und β2 und β1 sind in beiden Modellen in 10% signifikant, nachdem ich die HAC-Korrektur bei Standardfehlern durchgeführt habe. β3 ist positiv, aber in beiden Modellen nicht signifikant.

Aber für 3 hat β1 das erwartete Vorzeichen, aber das Vorzeichen für β2 ist positiv, wobei die Größe im absoluten Wert zweimal größer als β1 ist. Und sowohl β1 als auch β2 sind unbedeutend. Darüber β3 verringert sich die Größe für \ beta_3 im Vergleich zu Regression 1 und 2 fast um die Hälfte.

Meine Frage ist:

Warum wird in 3 das Vorzeichen von positiv und im absoluten Wert viel größer als ? Gibt es einen statistischen Grund dafür, dass das Vorzeichen umdrehen kann und eine große Größe hat? Oder liegt es daran, dass Modell 1 und 2 unter einem Problem mit ausgelassenen Variablen leiden, das aufgeblasen vorausgesetzt, wirkt sich positiv auf y aus? Aber dann sollten in Regressionsmodell 1 und 2 sowohl als auch positiv statt negativ sein, da der Gesamteffekt von und in Regressionsmodell 3 positiv ist.β2β1β2β3x2β2β1x1x2

Antworten:


8

Denken Sie an dieses Beispiel:

Sammeln Sie einen Datensatz basierend auf den Münzen in den Taschen der Menschen. Die Variable y / response ist der Gesamtwert der Münzen, die Variable x1 ist die Gesamtzahl der Münzen und x2 ist die Anzahl der Münzen, die keine Viertel sind (oder was auch immer der größte Wert ist) der gängigen Münzen sind für die lokale).

Es ist leicht zu erkennen, dass die Regression mit entweder x1 oder x2 eine positive Steigung ergeben würde, aber wenn beide in das Modell einbezogen würden, würde die Steigung auf x2 negativ werden, da eine Erhöhung der Anzahl kleinerer Münzen ohne Erhöhung der Gesamtzahl der Münzen ein Ersetzen bedeuten würde große Münzen mit kleineren und Verringerung des Gesamtwerts (y).

Dasselbe kann jedes Mal passieren, wenn Sie x Variablen korreliert haben. Die Vorzeichen können leicht entgegengesetzt sein, wenn ein Begriff für sich und in Gegenwart anderer ist.


3

Sie haben Ihre eigene Frage beantwortet - es gibt Kollinearität.

Ein bisschen Erklärung: und sind sehr kollinear. Wenn Sie jedoch beide in die Regression eingeben, versucht die Regression, die Wirkung der anderen Variablen zu steuern. Mit anderen Worten, halten konstant, was zu tun Änderungen in tun , um . Aber die Tatsache, dass sie so eng miteinander verbunden sind, bedeutet, dass diese Frage albern ist und seltsame Dinge passieren können.x1x2x1x2y


Vielen Dank. Da Multicolinearität theoretisch nur die Varianz aufbläst, aber nicht die Gesamtvorhersagekraft der stark korrelierten Variablen beeinflusst, dachte ich, dass in Modell 3 ein ähnliches Ergebnis liefern sollte wie in Modell 1 oder in Modell 2, da die paarweise Korrelation von x1 x2 mit x3 nicht hoch ist (eigentlich ist dies mein verwirrender Teil). Da die Korrelation jedoch sehr chaotisch sein kann und in der Praxis nicht zu erwarten ist, ist mein Modell nur eine Annäherung an die DGP und die Korrelation mit anderen Variablen von Bedeutung. β1x1+β2x2β2x2β1x1
ting

Wenn Sie in die Mathematik einsteigen möchten, empfehle ich Bücher von David Belsley.
Peter Flom - Reinstate Monica

Super, vielen Dank !!! Nur gebeten , die Bücher aus der Bibliothek :)
ting

2

Warum wird in 3 das Vorzeichen von β2 positiv und im absoluten Wert viel größer als β1? Gibt es einen statistischen Grund dafür, dass β2 das Vorzeichen umdrehen kann und eine große Größe hat?

Die einfache Antwort ist, dass es keinen tiefen Grund gibt.

Die Art und Weise, darüber nachzudenken, ist, dass, wenn sich Multikollinearie dem Perfekt nähert, die spezifischen Werte, die Sie am Ende aus der Anpassung erhalten, immer mehr von immer kleineren Details der Daten abhängen. Wenn Sie dieselbe Datenmenge aus derselben zugrunde liegenden Verteilung abtasten und dann anpassen würden, könnten Sie völlig unterschiedliche angepasste Werte erhalten.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.