Als «multiple-regression» getaggte Fragen

Regression, die zwei oder mehr nicht konstante unabhängige Variablen enthält.

3
Warum wird die polynomiale Regression als Sonderfall der multiplen linearen Regression angesehen?
Wenn die polynomiale Regression nichtlineare Beziehungen modelliert, wie kann sie als Sonderfall der multiplen linearen Regression betrachtet werden? Wikipedia stellt fest: "Obwohl die polynomiale Regression ein nichtlineares Modell an die Daten anpasst, ist sie als statistisches Schätzproblem linear in dem Sinne, dass die Regressionsfunktion in den geschätzten unbekannten Parametern linear …

2
Multiple Regression oder partieller Korrelationskoeffizient? Und die Beziehungen zwischen den beiden
Ich weiß nicht einmal, ob diese Frage sinnvoll ist, aber was ist der Unterschied zwischen multipler Regression und partieller Korrelation (abgesehen von den offensichtlichen Unterschieden zwischen Korrelation und Regression, die ich nicht anstrebe)? Ich möchte Folgendes herausfinden: Ich habe zwei unabhängige Variablen ( x1x1x_1 , ) und eine abhängige Variable …

7
Auswählen von Variablen, die in ein Modell mit mehreren linearen Regressionen aufgenommen werden sollen
Ich arbeite derzeit daran, ein Modell mit einer multiplen linearen Regression zu erstellen. Nachdem ich mit meinem Modell herumgespielt habe, bin ich mir nicht sicher, wie ich am besten bestimmen kann, welche Variablen aufbewahrt und welche entfernt werden sollen. Mein Modell startete mit 10 Prädiktoren für den DV. Bei Verwendung …

3
Signifikanzwiderspruch in der linearen Regression: signifikanter t-Test für einen Koeffizienten gegenüber nicht signifikanter Gesamt-F-Statistik
Ich passe ein Modell mit mehreren linearen Regressionen zwischen 4 kategorialen Variablen (mit jeweils 4 Ebenen) und einer numerischen Ausgabe an. Mein Datensatz enthält 43 Beobachtungen. Die Regression gibt mir die folgenden Werte aus dem Test für jeden Steigungskoeffizienten: . Somit ist der Koeffizient für den vierten Prädiktor bei einem …

5
Wie kann der Least Square Estimator für die multiple lineare Regression abgeleitet werden?
Im einfachen linearen Regressionsfall können Sie den Schätzer für kleinste Quadrate , sodass Sie nicht kennen müssen, um \ hat \ beta_1 zu schätzeny=β0+β1xy=β0+β1xy=\beta_0+\beta_1xβ^1=∑(xi−x¯)(yi−y¯)∑(xi−x¯)2β^1=∑(xi−x¯)(yi−y¯)∑(xi−x¯)2\hat\beta_1=\frac{\sum(x_i-\bar x)(y_i-\bar y)}{\sum(x_i-\bar x)^2}β^0β^0\hat\beta_0β^1β^1\hat\beta_1 Angenommen, ich habe y=β1x1+β2x2y=β1x1+β2x2y=\beta_1x_1+\beta_2x_2 . Wie kann ich \ hat \ beta_1 ableiten, β^1β^1\hat\beta_1ohne \ hat \ beta_2 zu schätzen β^2β^2\hat\beta_2? oder geht …

5
Umgang mit hierarchischen / verschachtelten Daten beim maschinellen Lernen
Ich werde mein Problem mit einem Beispiel erklären. Angenommen, Sie möchten das Einkommen einer Person anhand einiger Attribute vorhersagen: {Alter, Geschlecht, Land, Region, Stadt}. Sie haben einen Trainingsdatensatz wie diesen train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

1
Wie falsch ist ein Regressionsmodell, wenn die Annahmen nicht erfüllt sind?
Was passiert beim Anpassen eines Regressionsmodells, wenn die Annahmen der Ausgaben nicht erfüllt werden? Was passiert, wenn die Residuen nicht homoskedastisch sind? Wenn die Residuen ein zunehmendes oder abnehmendes Muster im Diagramm Residuen vs. Was passiert, wenn die Residuen nicht normal verteilt sind und den Shapiro-Wilk-Test nicht bestehen? Der Shapiro-Wilk-Test …

2
Warum sind p-Werte nach einer schrittweisen Auswahl irreführend?
Betrachten wir zum Beispiel ein lineares Regressionsmodell. Ich habe gehört, dass es beim Data Mining nach einer schrittweisen Auswahl auf der Grundlage des AIC-Kriteriums irreführend ist, die p-Werte zu betrachten, um die Nullhypothese zu testen, dass jeder wahre Regressionskoeffizient Null ist. Ich habe gehört, dass man alle Variablen, die im …

6
Warum brauchen wir multivariate Regression (im Gegensatz zu einer Reihe von univariaten Regressionen)?
Ich habe gerade dieses wunderbare Buch durchgesehen: Angewandte multivariate statistische Analyse von Johnson und Wichern . Die Ironie ist, dass ich die Motivation für die Verwendung multivariater (Regressions-) Modelle anstelle separater univariater (Regressions-) Modelle immer noch nicht verstehen kann. Ich habe die stats.statexchange-Posts 1 und 2 durchgesehen , die (a) …

3
Wie gehe ich bei der Variablenauswahl mit Multikollinearität um?
Ich habe einen Datensatz mit 9 kontinuierlichen unabhängigen Variablen. Ich versuche, unter diesen Variablen auszuwählen, um ein Modell an eine einzelne prozentuale (abhängige) Variable anzupassen Score. Leider weiß ich, dass es ernsthafte Kollinearität zwischen mehreren Variablen geben wird. Ich habe versucht, die stepAIC()Funktion in R für die Variablenauswahl zu verwenden, …

1
Können Freiheitsgrade eine nicht ganzzahlige Zahl sein?
Wenn ich GAM verwende, erhalte ich einen DF-Rest von (letzte Zeile im Code). Was bedeutet das? Über das GAM-Beispiel hinausgehend: Kann die Anzahl der Freiheitsgrade im Allgemeinen eine nicht ganzzahlige Zahl sein?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

3
Wie kann man den Unterschied zwischen linearen und nichtlinearen Regressionsmodellen erkennen?
Ich habe den folgenden Link zur nichtlinearen Regression SAS Non Linear gelesen . Mein Verständnis beim Lesen des ersten Abschnitts "Nichtlineare Regression vs. Lineare Regression" war, dass die folgende Gleichung tatsächlich eine lineare Regression ist. Ist das richtig? Wenn ja warum? y= b1x3+ b2x2+ b3x + cy=b1x3+b2x2+b3x+cy = b_1x^3 + …



3
Wie man diese ungerade Verteilung modelliert (fast ein umgekehrtes J)
Die unten angezeigte abhängige Variable passt nicht zu einer mir bekannten Aktienverteilung. Die lineare Regression erzeugt nicht ganz normale, rechtsgerichtete Residuen, die sich auf ungerade Weise auf das vorhergesagte Y beziehen (2. Diagramm). Irgendwelche Vorschläge für Transformationen oder andere Wege, um die validesten Ergebnisse und die beste Vorhersagegenauigkeit zu erzielen? …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.