Durch Hinzufügen eines linearen Regressionsprädiktors wird das R-Quadrat verringert


10

Mein - Datensatz ( N.10,000 ) eine abhängige Variable (DV), fünf unabhängige "Baseline" Variablen (P1, P2, P3, P4, P5) und eine unabhängige Variable von Interesse (Q).

Ich habe lineare OLS-Regressionen für die folgenden zwei Modelle ausgeführt:

DV ~ 1 + P1 + P2 + P3 + P4 + P5
                                  -> R-squared = 0.125

DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
                                  -> R-squared = 0.124

Das heißt, das Hinzufügen des Prädiktors Q hat den im linearen Modell erläuterten Varianzbetrag verringert. Soweit ich weiß, sollte dies nicht passieren .

Um klar zu sein, sind dies R-Quadrat-Werte und nicht angepasste R-Quadrat-Werte.

Ich habe die R-Quadrat-Werte mit den Statistikmodellen von Jasp und Python überprüft .

Gibt es einen Grund, warum ich dieses Phänomen sehen könnte? Vielleicht etwas im Zusammenhang mit der OLS-Methode?


1
numerische Probleme? Die Zahlen sind ziemlich nahe beieinander ...

@ user2137591 Dies ist, was ich denke, aber ich habe keine Ahnung, wie ich dies überprüfen soll. Die absolute Differenz der R-Quadrat-Werte beträgt 0,000513569, was klein, aber nicht so klein ist.
Cai

1
X.detX.T.X.T.det

8
Fehlende Werte werden automatisch gelöscht?
generic_user

1
0,000513569 ist eine sehr kleine Zahl: Es ist eine Veränderung von 0,41 Prozent. Es ist sehr wahrscheinlich ein numerisches Problem. Was Klarinettist zu sagen versucht, ist, dass Ihre Entwurfsmatrix möglicherweise eine schlechte Zustandsnummer hat und beim Invertieren numerisch instabil ist ...

Antworten:


25

Könnte es sein, dass Sie fehlende Werte haben Q, die automatisch gelöscht werden? Dies hätte Auswirkungen auf die Stichprobe und würde die beiden Regressionen nicht vergleichbar machen.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.