Als «regression» getaggte Fragen

Techniken zum Analysieren der Beziehung zwischen einer (oder mehreren) "abhängigen" Variablen und "unabhängigen" Variablen.

1
Wie teste ich die statistische Signifikanz für kategoriale Variablen in der linearen Regression?
Wenn ich in einer linearen Regression eine kategoriale Variable habe ... woher weiß ich, welche statistische Bedeutung die kategoriale Variable hat? Nehmen wir an, der Faktor hat 10 Stufen ... es gibt 10 verschiedene resultierende t-Werte unter dem Dach einer Faktorvariablen ...X 1X1X1X_1X1X1X_1 Es scheint mir, dass die statistische Signifikanz …



2
Was ist der richtige Weg, um auf signifikante Unterschiede zwischen Koeffizienten zu testen?
Ich hoffe, jemand kann mir dabei helfen, einen Punkt der Verwirrung auszuräumen. Angenommen, ich möchte testen, ob sich zwei Regressionskoeffizientensätze signifikant voneinander unterscheiden, und zwar mit folgendem Aufbau: mit 5 unabhängigen Variablen.yich= α +βxich+ ϵichyich=α+βxich+ϵichy_i = \alpha + \beta x_i + \epsilon_i 2 Gruppen mit ungefähr gleichen Größen (obwohl dies …


3
Wie ist es möglich, ein gutes lineares Regressionsmodell zu erhalten, wenn keine wesentliche Korrelation zwischen der Ausgabe und den Prädiktoren besteht?
Ich habe ein lineares Regressionsmodell unter Verwendung einer Reihe von Variablen / Merkmalen trainiert. Und das Modell hat eine gute Leistung. Ich habe jedoch festgestellt, dass es keine Variable gibt, die mit der vorhergesagten Variablen gut korreliert. Wie ist es möglich?

3
Warum nicht die „normalen Gleichungen“ verwenden, um einfache Koeffizienten kleinster Quadrate zu finden?
Ich habe diese Liste hier gesehen und konnte nicht glauben, dass es so viele Möglichkeiten gibt, die kleinsten Quadrate zu lösen. Die "normalen Gleichungen" in Wikipedia schienen ein recht einfacher Weg zu sein: α^β^= y¯- β^x¯,= ∑nich= 1( xich- x¯) ( yich- y¯)∑ni = 1( xich- x¯)2α^=y¯-β^x¯,β^=∑ich=1n(xich-x¯)(yich-y¯)∑ich=1n(xich-x¯)2 {\displaystyle {\begin{aligned}{\hat {\alpha …

1
Gibt es eine Bayes'sche Interpretation der linearen Regression mit simultaner L1- und L2-Regularisierung (auch bekannt als elastisches Netz)?
Es ist allgemein bekannt, dass eine lineare Regression mit einer 1 Strafe gleichbedeutend ist mit dem Finden der MAP-Schätzung, wenn ein Gaußscher Wert vor den Koeffizienten angegeben wird. In ähnlicher Weise ist die Verwendung einer Strafe gleichbedeutend mit der Verwendung einer Laplace-Verteilung wie zuvor.l 1l2l2l^2l1l1l^1 Es ist nicht ungewöhnlich, eine …

2
Warum kann sich die Beta-Regression nicht genau mit Nullen und Einsen in der Antwortvariablen befassen?
Beta-Regression (dh GLM mit Beta-Verteilung und normalerweise der Logit-Link-Funktion) wird häufig empfohlen, um Antworten zu behandeln, die als abhängige Variablen mit Werten zwischen 0 und 1 bezeichnet werden, z. B. Brüche, Verhältnisse oder Wahrscheinlichkeiten. Regression für ein Ergebnis (Verhältnis oder Bruch) zwischen 0 und 1 . Es wird jedoch immer …

2
Unterschied zwischen Regressionsanalyse und Kurvenanpassung
Kann mir bitte jemand den tatsächlichen Unterschied zwischen Regressionsanalyse und Kurvenanpassung (linear und nichtlinear) erklären, wenn möglich anhand eines Beispiels? Es scheint, dass beide versuchen, eine Beziehung zwischen zwei Variablen (abhängig und unabhängig) zu finden und dann den Parameter (oder Koeffizienten) zu bestimmen, der den vorgeschlagenen Modellen zugeordnet ist. Zum …

1
Wie berechnet man Vorhersageintervalle für LOESS?
Ich habe einige Daten, die ich mit einem LOESS-Modell in R angepasst habe. Die Daten haben einen Prädiktor und eine Antwort und sind heteroskedastisch. Ich habe auch Konfidenzintervalle hinzugefügt. Das Problem ist, dass die Intervalle Konfidenzintervalle für die Linie sind, während ich mich für die Vorhersageintervalle interessiere. Beispielsweise ist das …

2
Was erklärt ein Diagramm mit hinzugefügten Variablen (partielle Regression) in einer multiplen Regression?
Ich habe ein Modell des Datasets "Filme" und habe die Regression verwendet: model <- lm(imdbVotes ~ imdbRating + tomatoRating + tomatoUserReviews+ I(genre1 ** 3.0) +I(genre2 ** 2.0)+I(genre3 ** 1.0), data = movies) res <- qplot(fitted(model), resid(model)) res+geom_hline(yintercept=0) Welches gab die Ausgabe: Jetzt habe ich das erste Mal versucht, etwas mit …

1
Ausgelassener variabler Bias in der logistischen Regression vs. ausgelassener variabler Bias in der gewöhnlichen Regression der kleinsten Quadrate
Ich habe eine Frage zu ausgelassenen variablen Verzerrungen in der logistischen und linearen Regression. Angenommen, ich lasse einige Variablen aus einem linearen Regressionsmodell weg. Stellen Sie sich vor, dass diese ausgelassenen Variablen nicht mit den in meinem Modell enthaltenen Variablen korreliert sind. Diese ausgelassenen Variablen beeinflussen die Koeffizienten in meinem …

2
Interpretation der ordinalen logistischen Regression
Ich habe diese ordinale logistische Regression in R ausgeführt: mtcars_ordinal <- polr(as.factor(carb) ~ mpg, mtcars) Ich habe diese Zusammenfassung des Modells erhalten: summary(mtcars_ordinal) Re-fitting to get Hessian Call: polr(formula = as.factor(carb) ~ mpg, data = mtcars) Coefficients: Value Std. Error t value mpg -0.2335 0.06855 -3.406 Intercepts: Value Std. Error …

1
Was bewirkt die Funktion „Effekte“ in R?
Ich verstehe die Erklärung in Rder Hilfedatei für effects () nicht : Für ein lineares Modell, das mit lmoder angepasst wurde aov, sind die Effekte die nicht korrelierten Einzelfreiheitsgradwerte, die durch Projektion der Daten auf die aufeinanderfolgenden orthogonalen Teilräume erhalten wurden, die durch die QR-Zerlegung während des Anpassungsprozesses generiert wurden. …
17 r  regression 

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.