Als «regression-coefficients» getaggte Fragen

Die Parameter eines Regressionsmodells. Am häufigsten die Werte, mit denen die unabhängigen Variablen multipliziert werden, um den vorhergesagten Wert der abhängigen Variablen zu erhalten.

2
Wie lässt sich richtig bestimmen, welche Merkmale am meisten zur Vorhersage eines bestimmten Eingabevektors beigetragen haben?
Ich verwende die logistische Regression für die binäre Klassifizierung. Ich habe einen großen Datensatz (zufällig sehr unausgeglichen: 19: 1). Also benutze ich Scikit-Learns LogisticRegression(), um 80% meiner beschrifteten Daten zu trainieren, und validierte dann mit den anderen 20% (ich habe mir den Bereich unter ROC sowie den Präzisionsrückruf angesehen, weil …

1
Interpretation von Regressionskoeffizienten basierend auf Andrew Gelmans Neuskalierungsmethode
Ich habe zwei Prädiktoren in einem binären logistischen Regressionsmodell: einen binären und einen kontinuierlichen. Mein primäres Ziel ist es, die Koeffizienten der beiden Prädiktoren innerhalb desselben Modells zu vergleichen. Ich bin auf Andrew Gelmans Vorschlag gestoßen, Eingabevariablen für die kontinuierliche Regression zu standardisieren: I) Ursprünglicher Vorschlag (2008): Teilen Sie den …

3
Ein konkretes Beispiel ist die Durchführung einer SVD, um fehlende Werte zu unterstellen
Ich habe die großartigen Kommentare zum Umgang mit fehlenden Werten vor dem Anwenden von SVD gelesen, möchte aber anhand eines einfachen Beispiels wissen, wie dies funktioniert: Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 Wenn ich in der …
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 

1
So berechnen Sie dfbetas manuell
Ich versuche zu replizieren, was die Funktion dfbetas()in R tut . dfbeta() ist kein Problem ... Hier ist eine Reihe von Vektoren: x <- c(0.512, 0.166, -0.142, -0.614, 12.72) y <- c(0.545, -0.02, -0.137, -0.751, 1.344) Wenn ich zwei Regressionsmodelle wie folgt anpasse: fit1 <- lm(y ~ x) fit2 <- …


2
Warum würde ein statistisches Modell bei einem riesigen Datensatz überanpassen?
Für mein aktuelles Projekt muss ich möglicherweise ein Modell erstellen, um das Verhalten einer bestimmten Personengruppe vorherzusagen. Der Trainingsdatensatz enthält nur 6 Variablen (ID dient nur zu Identifikationszwecken): id, age, income, gender, job category, monthly spend in dem monthly spendist die Antwortvariable. Der Trainingsdatensatz enthält jedoch ungefähr 3 Millionen Zeilen, …
8 modeling  large-data  overfitting  clustering  algorithms  error  spatial  r  regression  predictive-models  linear-model  average  measurement-error  weighted-mean  error-propagation  python  standard-error  weighted-regression  hypothesis-testing  time-series  machine-learning  self-study  arima  regression  correlation  anova  statistical-significance  excel  r  regression  distributions  statistical-significance  contingency-tables  regression  optimization  measurement-error  loss-functions  image-processing  java  panel-data  probability  conditional-probability  r  lme4-nlme  model-comparison  time-series  probability  probability  conditional-probability  logistic  multiple-regression  model-selection  r  regression  model-based-clustering  svm  feature-selection  feature-construction  time-series  forecasting  stationarity  r  distributions  bootstrap  r  distributions  estimation  maximum-likelihood  garch  references  probability  conditional-probability  regression  logistic  regression-coefficients  model-comparison  confidence-interval  r  regression  r  generalized-linear-model  outliers  robust  regression  classification  categorical-data  r  association-rules  machine-learning  distributions  posterior  likelihood  r  hypothesis-testing  normality-assumption  missing-data  convergence  expectation-maximization  regression  self-study  categorical-data  regression  simulation  regression  self-study  self-study  gamma-distribution  modeling  microarray  synthetic-data 

1
Beitrag jeder Kovariate zu einer einzelnen Vorhersage in einem logistischen Regressionsmodell
Nehmen wir zum Beispiel an, wir haben ein logistisches Regressionsmodell, das die Wahrscheinlichkeit ausgibt, dass ein Patient eine bestimmte Krankheit entwickelt, die auf vielen Kovariaten basiert. Wir können uns ein Bild von der Größe und Richtung des Effekts jeder Kovariate im Allgemeinen machen, indem wir die Koeffizienten des Modells untersuchen …



3
Interpretation des Koeffizienten in einem linearen Regressionsmodell mit kategorialen Variablen
Ich werde meine Beispiele mit R-Aufrufen geben. Zunächst ein einfaches Beispiel einer linearen Regression mit einer abhängigen Variablen 'Lebensdauer' und zwei kontinuierlichen erklärenden Variablen. data.frame(height=runif(4000,160,200))->human.life human.life$weight=runif(4000,50,120) human.life$lifespan=sample(45:90,4000,replace=TRUE) summary(lm(lifespan~1+height+weight,data=human.life)) Call: lm(formula = lifespan ~ 1 + height + weight, data = human.life) Residuals: Min 1Q Median 3Q Max -23.0257 -11.9124 -0.0565 …

2
Wann wird die Ridge-Regression und die Lasso-Regression verwendet? Was kann erreicht werden, wenn diese Techniken anstelle des linearen Regressionsmodells verwendet werden?
Ich freue mich darauf, mehr über die regulierten Regressionstechniken wie Ridge- und Lasso-Regression zu erfahren. Ich würde gerne wissen, was mit diesen Techniken im Vergleich zum linearen Regressionsmodell erreicht werden kann. Auch in welcher Situation sollten wir diese Techniken anwenden. Und was unterscheidet diese beiden Techniken? Ich möchte das Konzept …



1
Was ist der Unterschied zwischen der Verwendung zufälliger Abschnitte und Steigungen anstelle separater Regressionen pro Subjekt?
Ich habe eine DV und IV von 20 Teilnehmern aufgenommen. Die IV ist eine wiederholte Messung, und mein Ziel ist es zu sehen, wie Variationen in der IV Variationen in der DV erklären können. Insbesondere möchte ich für jeden Teilnehmer einen Beta-Koeffizienten. Mein erster Gedanke war, ein lineares Mischeffektmodell mit …

3
Konvertieren des Beta-Koeffizienten von der Matrix in die Skalarnotation in der OLS-Regression
Ich habe bei meinen ökonometrischen Untersuchungen festgestellt, dass ich mich oft retten kann, wenn ich die Skalarnotation vergesse, indem ich mich an die Matrixnotation erinnere und rückwärts arbeite. Das Folgende verwirrte mich jedoch. Angesichts der einfachen Schätzung yi^=β0^+β1^xi1yi^=β0^+β1^xi1\hat{y_i} = \hat{\beta_0} + \hat{\beta_1}x_{i1} Wie kommen wir davon? β^=(X′X)−1X′yβ^=(X′X)−1X′y\boldsymbol{\hat{\beta}} = \boldsymbol{(X'X)}^{-1}\boldsymbol{X'y} zu …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.