Als «multiple-regression» getaggte Fragen

Regression, die zwei oder mehr nicht konstante unabhängige Variablen enthält.

4
Reduzieren der Anzahl von Variablen in einer multiplen Regression
Ich habe einen großen Datensatz, der aus den Werten mehrerer hundert Finanzvariablen besteht, die in einer multiplen Regression verwendet werden könnten, um das Verhalten eines Indexfonds im Zeitverlauf vorherzusagen. Ich möchte die Anzahl der Variablen auf etwa zehn reduzieren und dabei so viel Vorhersagekraft wie möglich behalten. Hinzugefügt: Die reduzierte …

1
CCA durchführen vs. eine abhängige Variable mit PCA erstellen und dann Regression durchführen
Bei zwei mehrdimensionalen Datensätzen, und , führen einige Personen eine multivariable Analyse durch, indem sie mithilfe der Hauptkomponentenanalyse (PCA) eine ersatzabhängige Variable erstellen. Das heißt, führen Sie PCA auf Set aus, nehmen Sie Scores entlang der ersten Komponente und führen Sie eine multiple Regression dieser Scores auf : . (Ich …

2
Multiple Regression in der Richtungs- / Zirkularstatistik?
Ich versuche, ein Vorhersagemodell für eine winkelabhängige Variable (auf zu entwickeln, indem ich mehrere unabhängige Messungen - auch Winkelvariablen auf - als Prädiktoren verwende. Jeder Prädiktor ist signifikant, aber nicht extrem stark mit der abhängigen Variablen korreliert. Wie kann ich die Prädiktoren kombinieren, um ein Vorhersagemodell für die abhängige Variable …


3
Wie kann bei Verwendung von glmnet die p-Wert-Signifikanz gemeldet werden, um die Signifikanz von Prädiktoren zu beanspruchen?
Ich habe eine große Anzahl von Prädiktoren (mehr als 43.000) zur Vorhersage einer abhängigen Variablen, die 2 Werte annehmen kann (0 oder 1). Die Anzahl der Beobachtungen beträgt mehr als 45.000. Die meisten Prädiktoren sind Unigramme, Bigramme und Trigramme von Wörtern, daher besteht zwischen ihnen ein hohes Maß an Kollinearität. …

1
Posteriore Verteilung für die Bayes'sche lineare Regression
Ich habe die Verwendung der Bayes'schen linearen Regression untersucht, bin aber zu einem Beispiel gekommen, über das ich verwirrt bin. Angesichts des Modells: y=βX+ϵy=βX+ϵ{\bf y} = {\bf \beta}{\bf X} + \bf{\epsilon} Angenommen, und ein ,ϵ∼N(0,ϕI)ϵ∼N(0,ϕI){\bf \epsilon} \sim N(0, \phi I)p(β,ϕ)∝1ϕp(β,ϕ)∝1ϕp(\beta, \phi) \propto \frac{1}{\phi} Wie wird erreicht?p(β|ϕ,y)p(β|ϕ,y)p(\beta|\phi, {\bf y}) Wobei: .p(β|ϕ,y)∼N(XTX)−1XTy,ϕ(XTX)−1)p(β|ϕ,y)∼N(XTX)−1XTy,ϕ(XTX)−1)p(\beta|\phi, …


4
Wie kann die Kollinearität kategorialer Variablen bei der logistischen Regression vermieden werden?
Ich habe das folgende Problem: Ich führe eine mehrfache logistische Regression für mehrere Variablen durch, von denen jede eine nominelle Skala hat. Ich möchte Multikollinearität in meiner Regression vermeiden. Wenn die Variablen kontinuierlich wären, könnte ich den Varianzinflationsfaktor (VIF) berechnen und nach Variablen mit einem hohen VIF suchen. Wenn die …


1
Warum werden Interaktionen bei multipler Regression als Produkte und nicht als etwas anderes der Prädiktoren modelliert?
Betrachten Sie die multiple lineare Regression. Diese Frage mag täuschend einfach sein, aber ich versuche intuitiv zu verstehen, warum, wenn ich beispielsweise Prädiktoren X1 und X2 habe, Interaktionen zwischen diesen Prädiktoren von X1 * X2 angemessen erfasst werden können. Ich weiß, dass Interaktionsbegriffe als Produkte modelliert werden, nur weil mir …

1
Wie kann man testen, ob sich mehrere Regressionskoeffizienten statistisch nicht unterscheiden?
Angenommen, ich schätze die folgende multivariate lineare Regression: Wie kann ich das testen ?bgr; 1 = & bgr ; 2 = & bgr ; 3y=β0+β1x1+β2x2+β3x3+β4x4+ϵy=β0+β1x1+β2x2+β3x3+β4x4+ϵ y = \beta_0 +\beta_1 x_1 +\beta_2 x_2+\beta_3x_3+\beta_4x_4 + \epsilonβ1=β2=β3β1=β2=β3\beta_1=\beta_2=\beta_3 Ich weiß, dass Sie zum Testen von einfach einen Test mit Z Z = β 1 …


1
Gleichung für die Varianzinflationsfaktoren
Nach einer zuvor gestellten Frage können die Varianzinflationsfaktoren (VIFs) ausgedrückt werden als ist die skalierte Version vonVIFj=Var(b^j)σ2=[w′jwj−w′jW−j(W′−jW−j)−1W′−jwj]−1VIFj=Var(b^j)σ2=[wj′wj−wj′W−j(W−j′W−j)−1W−j′wj]−1 \textrm{VIF}_j = \frac{\textrm{Var}(\hat{b}_j)}{\sigma^2} = [\mathbf{w}_j^{\prime} \mathbf{w}_j - \mathbf{w}_j^{\prime} \mathbf{W}_{-j} (\mathbf{W}_{-j}^{\prime} \mathbf{W}_{-j})^{-1} \mathbf{W}_{-j}^{\prime} \mathbf{w}_j]^{-1} WW\mathbf{W}XX\mathbf{X} Kann mir jemand zeigen, wie ich von hier zur Gleichung ist der Koeffizient der Mehrfachbestimmung, der durch Regression von …

4
Ist es realistisch, dass alle Variablen in einem multiplen Regressionsmodell von hoher Bedeutung sind?
Ich möchte den Kraftstoffverbrauch bei Hubraum, Kraftstoffart, 2- oder 4-Rad-Antrieb, Leistung, manuellem oder automatischem Getriebe und der Anzahl der Geschwindigkeiten senken. Mein Datensatz ( Link ) enthält Fahrzeuge von 2012-2014. fuelEconomy in Meilen pro Gallone engineDisplacement: Motorgröße in Litern fuelStd: 1 für Gas 0 für Diesel wheelDriveStd: 1 für Allradantrieb, …

3
Ein konkretes Beispiel ist die Durchführung einer SVD, um fehlende Werte zu unterstellen
Ich habe die großartigen Kommentare zum Umgang mit fehlenden Werten vor dem Anwenden von SVD gelesen, möchte aber anhand eines einfachen Beispiels wissen, wie dies funktioniert: Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 Wenn ich in der …
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.