Als «regression» getaggte Fragen

Techniken zum Analysieren der Beziehung zwischen einer (oder mehreren) "abhängigen" Variablen und "unabhängigen" Variablen.



3
Leiten Sie die Varianz des Regressionskoeffizienten in der einfachen linearen Regression ab
Bei der einfachen linearen Regression ist , wobei . Ich habe den Schätzer abgeleitet: wobei und die Beispielmittel für und .y=β0+β1x+uy=β0+β1x+uy = \beta_0 + \beta_1 x + uu∼iidN(0,σ2)u∼iidN(0,σ2)u \sim iid\;\mathcal N(0,\sigma^2)β1^=∑i(xi−x¯)(yi−y¯)∑i(xi−x¯)2 ,β1^=∑i(xi−x¯)(yi−y¯)∑i(xi−x¯)2 , \hat{\beta_1} = \frac{\sum_i (x_i - \bar{x})(y_i - \bar{y})}{\sum_i (x_i - \bar{x})^2}\ , x¯x¯\bar{x}y¯y¯\bar{y}xxxyyy Jetzt möchte ich die …

4
Unterschied zwischen Vorhersage und Vorhersage?
Ich habe mich gefragt, welcher Unterschied und welche Beziehung zwischen Vorhersage und Vorhersage besteht. Besonders in Zeitreihen und Regressionen? Habe ich zum Beispiel Recht, dass: In Zeitreihen scheint Prognose zu bedeuten, zukünftige Werte anhand vergangener Werte einer Zeitreihe zu schätzen. In der Regression scheint Vorhersage zu bedeuten, einen Wert zu …



2
Logistische Regression vs. LDA als Zwei-Klassen-Klassifizierer
Ich versuche, mich mit dem statistischen Unterschied zwischen linearer Diskriminanzanalyse und logistischer Regression auseinanderzusetzen . Wenn ich richtig verstehe , sagt LDA für ein Zweiklassen- Klassifizierungsproblem zwei Normaldichtefunktionen (eine für jede Klasse) voraus, die eine lineare Grenze dort bilden, wo sie sich schneiden, während die logistische Regression nur die ungerade …

4
Wie werden Koeffizienten aus einer Polynommodellanpassung interpretiert?
Ich versuche, ein Polynom zweiter Ordnung zu erstellen, das zu einigen meiner Daten passt. Angenommen, ich zeichne diese Übereinstimmung mit ggplot(): ggplot(data, aes(foo, bar)) + geom_point() + geom_smooth(method="lm", formula=y~poly(x, 2)) Ich bekomme: Eine Passung zweiter Ordnung funktioniert also ganz gut. Ich berechne es mit R: summary(lm(data$bar ~ poly(data$foo, 2))) Und …

3
Ableiten einer Varianz-Kovarianz-Matrix von Koeffizienten in linearer Regression
Ich lese gerade ein Buch über lineare Regression und habe Probleme, die Varianz-Kovarianz-Matrix von zu verstehen :bb\mathbf{b} Die diagonalen Elemente sind einfach genug, aber die nicht diagonalen sind etwas schwieriger. Was mich ist, dass σ(b0,b1)=E(b0b1)−E(b0)E(b1)=E(b0b1)−β0β1σ(b0,b1)=E(b0b1)−E(b0)E(b1)=E(b0b1)−β0β1 \sigma(b_0, b_1) = E(b_0 b_1) - E(b_0)E(b_1) = E(b_0 b_1) - \beta_0 \beta_1 Von und …
36 regression 


2
Wie interpretiere ich glmnet?
Ich versuche, ein multivariates lineares Regressionsmodell mit ungefähr 60 Prädiktorvariablen und 30 Beobachtungen anzupassen , daher verwende ich das glmnet- Paket für die regulierte Regression, da p> n. Ich habe Dokumentationen und andere Fragen durchgearbeitet, kann die Ergebnisse aber immer noch nicht interpretieren. Hier ist ein Beispielcode (mit 20 Prädiktoren …

4
Was ist eine Instrumentalvariable?
In der angewandten Wirtschaft und Statistik werden instrumentelle Variablen immer häufiger. Können wir für die Uneingeweihten einige nichttechnische Antworten auf die folgenden Fragen haben: Was ist eine Instrumentalvariable? Wann würde man eine instrumentelle Variable einsetzen wollen? Wie findet oder wählt man eine Instrumentalvariable?


2
Gradientenverstärkung für lineare Regression - warum funktioniert das nicht?
Beim Erlernen von Gradient Boosting sind mir keine Einschränkungen in Bezug auf die Eigenschaften eines "schwachen Klassifikators" bekannt, mit dem die Methode ein Modell erstellt und zusammensetzt. Ich konnte mir jedoch keine Anwendung eines GB vorstellen, bei der lineare Regression verwendet wird, und tatsächlich funktioniert dies nicht, wenn ich einige …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.