Mein - Datensatz ( ) eine abhängige Variable (DV), fünf unabhängige "Baseline" Variablen (P1, P2, P3, P4, P5) und eine unabhängige Variable von Interesse (Q).
Ich habe lineare OLS-Regressionen für die folgenden zwei Modelle ausgeführt:
DV ~ 1 + P1 + P2 + P3 + P4 + P5
-> R-squared = 0.125
DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
-> R-squared = 0.124
Das heißt, das Hinzufügen des Prädiktors Q hat den im linearen Modell erläuterten Varianzbetrag verringert. Soweit ich weiß, sollte dies nicht passieren .
Um klar zu sein, sind dies R-Quadrat-Werte und nicht angepasste R-Quadrat-Werte.
Ich habe die R-Quadrat-Werte mit den Statistikmodellen von Jasp und Python überprüft .
Gibt es einen Grund, warum ich dieses Phänomen sehen könnte? Vielleicht etwas im Zusammenhang mit der OLS-Methode?