Als «regression» getaggte Fragen

Techniken zum Analysieren der Beziehung zwischen einer (oder mehreren) "abhängigen" Variablen und "unabhängigen" Variablen.

1
Können Freiheitsgrade eine nicht ganzzahlige Zahl sein?
Wenn ich GAM verwende, erhalte ich einen DF-Rest von (letzte Zeile im Code). Was bedeutet das? Über das GAM-Beispiel hinausgehend: Kann die Anzahl der Freiheitsgrade im Allgemeinen eine nicht ganzzahlige Zahl sein?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

1
Warum verwendet glmnet ein "naives" elastisches Netz aus dem Originalpapier von Zou & Hastie?
Das ursprüngliche elastische Netzpapier Zou & Hastie (2005) Regularisierung und Variablenauswahl über das elastische Netz führten die elastische Nettoverlustfunktion für die lineare Regression ein (hier gehe ich davon aus, dass alle Variablen zentriert und auf die Einheitsvarianz skaliert sind): L=1n∥∥y−Xβ∥∥2+λ1∥β∥1+λ2∥β∥22,L=1n‖y−Xβ‖2+λ1‖β‖1+λ2‖β‖22,\mathcal L = \frac{1}{n}\big\lVert y - X\beta\big\rVert^2 + \lambda_1\lVert \beta\rVert_1 + …

3
Wie kann man den Unterschied zwischen linearen und nichtlinearen Regressionsmodellen erkennen?
Ich habe den folgenden Link zur nichtlinearen Regression SAS Non Linear gelesen . Mein Verständnis beim Lesen des ersten Abschnitts "Nichtlineare Regression vs. Lineare Regression" war, dass die folgende Gleichung tatsächlich eine lineare Regression ist. Ist das richtig? Wenn ja warum? y= b1x3+ b2x2+ b3x + cy=b1x3+b2x2+b3x+cy = b_1x^3 + …


1
Angemessene Restfreiheitsgrade nach dem Löschen von Begriffen aus einem Modell
Ich denke über die Diskussion um diese Frage und insbesondere über Frank Harrells Kommentar nach, dass die Varianzschätzung in einem reduzierten Modell (dh einer, aus der eine Reihe von erklärenden Variablen getestet und verworfen wurden) Yes allgemeine Freiheitsgrade verwenden sollte . Professor Harrell weist darauf hin, dass dies den verbleibenden …

2
Bedeutung von p-Werten in der Regression
Wenn ich in einigen Softwarepaketen (z. B. Mathematica) eine lineare Regression durchführe, werden den einzelnen Parametern im Modell p-Werte zugeordnet. Zum Beispiel haben die Ergebnisse einer linearen Regression, die ein Ergebnis ergibt, einen p-Wert, der mit a assoziiert ist, und einen mit b .ax+bax+bax+baaabbb Was bedeuten diese p-Werte individuell für …



6
Warum führen kleinere Gewichte zu einfacheren Regularisierungsmodellen?
Ich habe Andrew Ngs Maschinelles Lernen-Kurs vor ungefähr einem Jahr abgeschlossen und schreibe jetzt meine High-School-Mathematikerkunde über die Funktionsweise der logistischen Regression und Techniken zur Leistungsoptimierung. Eine dieser Techniken ist natürlich die Regularisierung. Ziel der Regularisierung ist es, eine Überanpassung zu verhindern, indem die Kostenfunktion um das Ziel der Modellvereinfachung …

4
Ensemble verschiedener Arten von Regressoren, die Scikit-Learn (oder ein anderes Python-Framework) verwenden
Ich versuche die Regressionsaufgabe zu lösen. Ich habe herausgefunden, dass 3 Modelle für verschiedene Teilmengen von Daten gut funktionieren: LassoLARS, SVR und Gradient Tree Boosting. Mir ist aufgefallen, dass ich, wenn ich mit all diesen drei Modellen Vorhersagen mache und dann eine Tabelle mit den tatsächlichen Ergebnissen meiner drei Modelle …

5
Kann sich ein tiefes neuronales Netzwerk der Multiplikationsfunktion ohne Normalisierung annähern?
Nehmen wir an, wir möchten eine Regression für einfache f = x * yVerwendung eines standardmäßigen tiefen neuronalen Netzwerks durchführen. Ich erinnere mich, dass es Forschungsergebnisse gibt, die besagen, dass NN mit einer Hiden-Schicht jede Funktion approximieren kann, aber ich habe es versucht und ohne Normalisierung konnte NN nicht einmal …

2
Wie ist die Verteilung von in linearer Regression unter der Nullhypothese? Warum ist sein Modus nicht bei Null, wenn ?
Wie ist die Verteilung des Bestimmtheitsmaßes oder des quadratischen bei linearer univariater multipler Regression unter der Nullhypothese ?R2R2R^2H0:β=0H0:β=0H_0:\beta=0 Wie hängt es von der Anzahl der Prädiktoren kkk und der Anzahl der Stichproben n>kn>kn>k ? Gibt es einen Ausdruck in geschlossener Form für den Modus dieser Distribution? Insbesondere habe ich das …



6
Passen Sie einen sinusförmigen Term an Daten an
Obwohl ich diesen Beitrag gelesen habe, weiß ich immer noch nicht, wie ich das auf meine eigenen Daten anwenden soll, und hoffe, dass mir jemand helfen kann. Ich habe folgende Daten: y <- c(11.622967, 12.006081, 11.760928, 12.246830, 12.052126, 12.346154, 12.039262, 12.362163, 12.009269, 11.260743, 10.950483, 10.522091, 9.346292, 7.014578, 6.981853, 7.197708, 7.035624, …
26 r  regression  fitting 

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.