Was ist der statistische Unterschied zwischen einer linearen Regression in R mit der formulaMenge auf y ~ x + 0statt y ~ x? Wie interpretiere ich diese beiden unterschiedlichen Ergebnisse?
Ich führe die unten stehende multiple lineare Regression in R durch, um die Rendite des verwalteten Fonds vorherzusagen. reg <- lm(formula=RET~GRI+SAT+MBA+AGE+TEN, data=rawdata) Hier sind nur GRI & MBA binäre / dichotome Prädiktoren; Die verbleibenden Prädiktoren sind kontinuierlich. Ich verwende diesen Code, um Residuendiagramme für die binären Variablen zu generieren. plot(rawdata$GRI, …
Ich beobachte seltsame Muster in Residuen für meine Daten: [EDIT] Hier sind die partiellen Regressionsdiagramme für die beiden Variablen: [EDIT2] Das PP-Diagramm wurde hinzugefügt Die Verteilung scheint in Ordnung zu sein (siehe unten), aber ich habe keine Ahnung, woher diese gerade Linie kommen könnte. Irgendwelche Ideen? [UPDATE 31.07] Es stellte …
Mir ist bewusst, dass kategoriale Variablen mit k Ebenen mit k-1 Variablen in Dummy-Codierung codiert werden sollten (ähnlich für mehrwertige kategoriale Variablen). Ich habe mich gefragt, wie problematisch eine One-Hot-Codierung (dh die Verwendung von k Variablen) gegenüber einer Dummy-Codierung für verschiedene Regressionsmethoden ist, hauptsächlich lineare Regression, bestrafte lineare Regression (Lasso, …
Ich mache multiple lineare Regression. Ich habe 21 Beobachtungen und 5 Variablen. Mein Ziel ist es nur, die Beziehung zwischen Variablen zu finden Reicht mein Datensatz aus, um eine multiple Regression durchzuführen? Das T-Testergebnis ergab, dass 3 meiner Variablen nicht signifikant sind. Muss ich meine Regression mit den signifikanten Variablen …
Ich wundere mich über den Unterschied zwischen ihnen. Grundsätzlich erledigen sie am Ende die gleiche Aufgabe, indem sie Parameterkoeffizienten finden, aber sie sehen genauso anders aus, wie wir die Koeffizienten finden. Für mich scheint die Methode der kleinsten Quadrate Differenzierung und Matrixform zu verwenden, um die Koeffizienten zu finden, und …
Ich habe kein bestimmtes Beispiel oder keine bestimmte Aufgabe im Sinn. Ich bin gerade neu in der Verwendung von B-Splines und wollte diese Funktion im Regressionskontext besser verstehen. Nehmen wir an, wir wollen die Beziehung zwischen der Antwortvariablen und einigen Prädiktoren . Die Prädiktoren enthalten einige numerische Variablen sowie einige …
Betrachten Sie das folgende multiple Regressionsmodell: Y=Xβ+Zδ+U.(1)(1)Y=Xβ+Zδ+U.Y=X\beta+Z\delta+U.\tag{1} Hier ist YYY ein n×1n×1n\times 1 Spaltenvektor; XXX a n×(k+1)n×(k+1)n\times (k+1) Matrix; ββ\beta a (k+1)×1(k+1)×1(k+1)\times 1 Spaltenvektor; ZZZ a n×ln×ln\times l Matrix; δδ\delta a l×1l×1l\times 1 Spaltenvektor; und UUU , der Fehlerterm, ein n×1n×1n\times1 Spaltenvektor. FRAGE Mein Dozent, das Lehrbuch Einführung in die …
Es folgt ein Nomogramm, das aus einem mtcars-Datensatz mit dem Effektivwertpaket für die Formel erstellt wurde: mpg ~ wt + am + qsec Das Modell selbst scheint mit R2 von 0,85 und P <0,00001 gut zu sein > mod Linear Regression Model ols(formula = mpg ~ wt + am + …
Ich führe eine gepoolte OLS-Regression mit dem plm-Paket in R aus. Meine Frage bezieht sich jedoch eher auf grundlegende Statistiken. Deshalb versuche ich, sie zuerst hier zu veröffentlichen. Da meine Regressionsergebnisse heteroskedastische Residuen ergeben, möchte ich versuchen, robuste Standardfehler der Heteroskedastizität zu verwenden. Als Ergebnis coeftest(mod, vcov.=vcovHC(mod, type="HC0"))erhalte ich eine …
Ich habe das Kapitel zur multiplen Regression von Datenanalyse und Grafik mit R: Ein beispielbasierter Ansatz gelesen und war etwas verwirrt, als ich herausfand, dass empfohlen wird, nach linearen Beziehungen zwischen erklärenden Variablen (mithilfe eines Streudiagramms) zu suchen, und falls es keine gibt. t überhaupt, die Umwandlung sie , damit …
Angenommen, ich passe eine multiple Regression von p erklärenden Variablen an. Mit dem t-Test kann ich überprüfen, ob einer davon signifikant ist ( ). Ich kann einen partiellen F-Test durchführen zu prüfen , ob eine Teilmenge von ihnen signifikant ( H 0 : β i = β j = . …
Ich habe ein GLMM der Form: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Wenn ich benutze drop1(model, test="Chi"), erhalte ich andere Ergebnisse als wenn ich Anova(model, type="III")aus dem Autopaket oder benutze summary(model). Diese beiden letzteren geben die gleichen Antworten. Unter Verwendung einer Reihe …
Ich habe eine Frage zum Differenzen-in-Differenzen-Ansatz mit der folgenden Standardgleichung: Dabei ist Treat eine Dummy-Variable für die behandelte Gruppe und den Post. y=a+b1treat+b2post+b3treat⋅post+uy=a+b1treat+b2post+b3treat⋅post+u y= a + b_1\text{treat}+ b_2\text{post} + b_3\text{treat}\cdot\text{post} + u Nun ist meine Frage einfach: Warum verwenden die meisten Artikel immer noch zusätzliche Steuervariablen? Ich dachte, wenn die …
Bei der Einstellung der multivariaten multiplen Regression (Vektorregressor und Regressand) hängen die vier Haupttests für die allgemeine Hypothese (Wilks Lambda, Pillai-Bartlett, Hotelling-Lawley und Roys größte Wurzel) alle von den Eigenwerten der Matrix HE−1HE−1H E^{-1} , wobei HHH und EEE die "erklärten" und "gesamten" Variationsmatrizen sind. Ich hatte bemerkt , dass …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.