Wenn ich in einer linearen Regression eine kategoriale Variable habe ... woher weiß ich, welche statistische Bedeutung die kategoriale Variable hat? Nehmen wir an, der Faktor hat 10 Stufen ... es gibt 10 verschiedene resultierende t-Werte unter dem Dach einer Faktorvariablen ...X 1X1X1X_1X1X1X_1 Es scheint mir, dass die statistische Signifikanz …
Lassen Sie uns ein lineares Modell haben, zum Beispiel nur eine einfache ANOVA: # data generation set.seed(1.234) Ng <- c(41, 37, 42) data <- rnorm(sum(Ng), mean = rep(c(-1, 0, 1), Ng), sd = 1) fact <- as.factor(rep(LETTERS[1:3], Ng)) m1 = lm(data ~ 0 + fact) summary(m1) Ergebnis ist wie folgt: …
Ich habe einen Blackout. Ich erhielt das folgende Bild, um den Kompromiss zwischen Bias und Varianz im Kontext der linearen Regression zu veranschaulichen: Ich kann sehen, dass keines der beiden Modelle gut passt - das "Einfache" schätzt die Komplexität der XY-Beziehung nicht und das "Komplexe" ist einfach überpassend und lernt …
Ich hoffe, jemand kann mir dabei helfen, einen Punkt der Verwirrung auszuräumen. Angenommen, ich möchte testen, ob sich zwei Regressionskoeffizientensätze signifikant voneinander unterscheiden, und zwar mit folgendem Aufbau: mit 5 unabhängigen Variablen.yich= α +βxich+ ϵichyich=α+βxich+ϵichy_i = \alpha + \beta x_i + \epsilon_i 2 Gruppen mit ungefähr gleichen Größen (obwohl dies …
Ich habe eine numerische Variable, die in einem multivariaten logistischen Regressionsmodell nicht signifikant ist. Wenn ich es jedoch in Gruppen einteile, wird es plötzlich bedeutsam. Das ist für mich sehr kontraintuitiv: Wenn wir eine Variable kategorisieren, geben wir einige Informationen auf. Wie kann das sein?
Ich habe ein lineares Regressionsmodell unter Verwendung einer Reihe von Variablen / Merkmalen trainiert. Und das Modell hat eine gute Leistung. Ich habe jedoch festgestellt, dass es keine Variable gibt, die mit der vorhergesagten Variablen gut korreliert. Wie ist es möglich?
Ich habe diese Liste hier gesehen und konnte nicht glauben, dass es so viele Möglichkeiten gibt, die kleinsten Quadrate zu lösen. Die "normalen Gleichungen" in Wikipedia schienen ein recht einfacher Weg zu sein: α^β^= y¯- β^x¯,= ∑nich= 1( xich- x¯) ( yich- y¯)∑ni = 1( xich- x¯)2α^=y¯-β^x¯,β^=∑ich=1n(xich-x¯)(yich-y¯)∑ich=1n(xich-x¯)2 {\displaystyle {\begin{aligned}{\hat {\alpha …
Es ist allgemein bekannt, dass eine lineare Regression mit einer 1 Strafe gleichbedeutend ist mit dem Finden der MAP-Schätzung, wenn ein Gaußscher Wert vor den Koeffizienten angegeben wird. In ähnlicher Weise ist die Verwendung einer Strafe gleichbedeutend mit der Verwendung einer Laplace-Verteilung wie zuvor.l 1l2l2l^2l1l1l^1 Es ist nicht ungewöhnlich, eine …
Beta-Regression (dh GLM mit Beta-Verteilung und normalerweise der Logit-Link-Funktion) wird häufig empfohlen, um Antworten zu behandeln, die als abhängige Variablen mit Werten zwischen 0 und 1 bezeichnet werden, z. B. Brüche, Verhältnisse oder Wahrscheinlichkeiten. Regression für ein Ergebnis (Verhältnis oder Bruch) zwischen 0 und 1 . Es wird jedoch immer …
Kann mir bitte jemand den tatsächlichen Unterschied zwischen Regressionsanalyse und Kurvenanpassung (linear und nichtlinear) erklären, wenn möglich anhand eines Beispiels? Es scheint, dass beide versuchen, eine Beziehung zwischen zwei Variablen (abhängig und unabhängig) zu finden und dann den Parameter (oder Koeffizienten) zu bestimmen, der den vorgeschlagenen Modellen zugeordnet ist. Zum …
Ich habe einige Daten, die ich mit einem LOESS-Modell in R angepasst habe. Die Daten haben einen Prädiktor und eine Antwort und sind heteroskedastisch. Ich habe auch Konfidenzintervalle hinzugefügt. Das Problem ist, dass die Intervalle Konfidenzintervalle für die Linie sind, während ich mich für die Vorhersageintervalle interessiere. Beispielsweise ist das …
Ich habe ein Modell des Datasets "Filme" und habe die Regression verwendet: model <- lm(imdbVotes ~ imdbRating + tomatoRating + tomatoUserReviews+ I(genre1 ** 3.0) +I(genre2 ** 2.0)+I(genre3 ** 1.0), data = movies) res <- qplot(fitted(model), resid(model)) res+geom_hline(yintercept=0) Welches gab die Ausgabe: Jetzt habe ich das erste Mal versucht, etwas mit …
Ich habe eine Frage zu ausgelassenen variablen Verzerrungen in der logistischen und linearen Regression. Angenommen, ich lasse einige Variablen aus einem linearen Regressionsmodell weg. Stellen Sie sich vor, dass diese ausgelassenen Variablen nicht mit den in meinem Modell enthaltenen Variablen korreliert sind. Diese ausgelassenen Variablen beeinflussen die Koeffizienten in meinem …
Ich habe diese ordinale logistische Regression in R ausgeführt: mtcars_ordinal <- polr(as.factor(carb) ~ mpg, mtcars) Ich habe diese Zusammenfassung des Modells erhalten: summary(mtcars_ordinal) Re-fitting to get Hessian Call: polr(formula = as.factor(carb) ~ mpg, data = mtcars) Coefficients: Value Std. Error t value mpg -0.2335 0.06855 -3.406 Intercepts: Value Std. Error …
Ich verstehe die Erklärung in Rder Hilfedatei für effects () nicht : Für ein lineares Modell, das mit lmoder angepasst wurde aov, sind die Effekte die nicht korrelierten Einzelfreiheitsgradwerte, die durch Projektion der Daten auf die aufeinanderfolgenden orthogonalen Teilräume erhalten wurden, die durch die QR-Zerlegung während des Anpassungsprozesses generiert wurden. …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.