Als «multiple-regression» getaggte Fragen

Regression, die zwei oder mehr nicht konstante unabhängige Variablen enthält.


2
Wie führe ich eine Restanalyse für binäre / dichotome unabhängige Prädiktoren in der linearen Regression durch?
Ich führe die unten stehende multiple lineare Regression in R durch, um die Rendite des verwalteten Fonds vorherzusagen. reg <- lm(formula=RET~GRI+SAT+MBA+AGE+TEN, data=rawdata) Hier sind nur GRI & MBA binäre / dichotome Prädiktoren; Die verbleibenden Prädiktoren sind kontinuierlich. Ich verwende diesen Code, um Residuendiagramme für die binären Variablen zu generieren. plot(rawdata$GRI, …

4
Diagonale gerade Linien in Residuen gegen angepasste Werte zeichnen für multiple Regression
Ich beobachte seltsame Muster in Residuen für meine Daten: [EDIT] Hier sind die partiellen Regressionsdiagramme für die beiden Variablen: [EDIT2] Das PP-Diagramm wurde hinzugefügt Die Verteilung scheint in Ordnung zu sein (siehe unten), aber ich habe keine Ahnung, woher diese gerade Linie kommen könnte. Irgendwelche Ideen? [UPDATE 31.07] Es stellte …

3
Probleme mit der One-Hot-Codierung im Vergleich zur Dummy-Codierung
Mir ist bewusst, dass kategoriale Variablen mit k Ebenen mit k-1 Variablen in Dummy-Codierung codiert werden sollten (ähnlich für mehrwertige kategoriale Variablen). Ich habe mich gefragt, wie problematisch eine One-Hot-Codierung (dh die Verwendung von k Variablen) gegenüber einer Dummy-Codierung für verschiedene Regressionsmethoden ist, hauptsächlich lineare Regression, bestrafte lineare Regression (Lasso, …


4
Was ist der Unterschied zwischen kleinsten Quadraten und pseudoinversen Techniken für die lineare Regression?
Ich wundere mich über den Unterschied zwischen ihnen. Grundsätzlich erledigen sie am Ende die gleiche Aufgabe, indem sie Parameterkoeffizienten finden, aber sie sehen genauso anders aus, wie wir die Koeffizienten finden. Für mich scheint die Methode der kleinsten Quadrate Differenzierung und Matrixform zu verwenden, um die Koeffizienten zu finden, und …


2
Bedingte mittlere Unabhängigkeit impliziert Unvoreingenommenheit und Konsistenz des OLS-Schätzers
Betrachten Sie das folgende multiple Regressionsmodell: Y=Xβ+Zδ+U.(1)(1)Y=Xβ+Zδ+U.Y=X\beta+Z\delta+U.\tag{1} Hier ist YYY ein n×1n×1n\times 1 Spaltenvektor; XXX a n×(k+1)n×(k+1)n\times (k+1) Matrix; ββ\beta a (k+1)×1(k+1)×1(k+1)\times 1 Spaltenvektor; ZZZ a n×ln×ln\times l Matrix; δδ\delta a l×1l×1l\times 1 Spaltenvektor; und UUU , der Fehlerterm, ein n×1n×1n\times1 Spaltenvektor. FRAGE Mein Dozent, das Lehrbuch Einführung in die …


2
Wie bekomme ich eine ANOVA-Tabelle mit robusten Standardfehlern?
Ich führe eine gepoolte OLS-Regression mit dem plm-Paket in R aus. Meine Frage bezieht sich jedoch eher auf grundlegende Statistiken. Deshalb versuche ich, sie zuerst hier zu veröffentlichen. Da meine Regressionsergebnisse heteroskedastische Residuen ergeben, möchte ich versuchen, robuste Standardfehler der Heteroskedastizität zu verwenden. Als Ergebnis coeftest(mod, vcov.=vcovHC(mod, type="HC0"))erhalte ich eine …



1
Warum haben Anova () und drop1 () unterschiedliche Antworten für GLMMs geliefert?
Ich habe ein GLMM der Form: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Wenn ich benutze drop1(model, test="Chi"), erhalte ich andere Ergebnisse als wenn ich Anova(model, type="III")aus dem Autopaket oder benutze summary(model). Diese beiden letzteren geben die gleichen Antworten. Unter Verwendung einer Reihe …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

4
Warum Steuervariablen in Unterschieden verwenden?
Ich habe eine Frage zum Differenzen-in-Differenzen-Ansatz mit der folgenden Standardgleichung: Dabei ist Treat eine Dummy-Variable für die behandelte Gruppe und den Post. y=a+b1treat+b2post+b3treat⋅post+uy=a+b1treat+b2post+b3treat⋅post+u y= a + b_1\text{treat}+ b_2\text{post} + b_3\text{treat}\cdot\text{post} + u Nun ist meine Frage einfach: Warum verwenden die meisten Artikel immer noch zusätzliche Steuervariablen? Ich dachte, wenn die …

1
Gibt es eine Verallgemeinerung der Pillai-Spur und der Hotelling-Lawley-Spur?
Bei der Einstellung der multivariaten multiplen Regression (Vektorregressor und Regressand) hängen die vier Haupttests für die allgemeine Hypothese (Wilks Lambda, Pillai-Bartlett, Hotelling-Lawley und Roys größte Wurzel) alle von den Eigenwerten der Matrix HE−1HE−1H E^{-1} , wobei HHH und EEE die "erklärten" und "gesamten" Variationsmatrizen sind. Ich hatte bemerkt , dass …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.