Als «residuals» getaggte Fragen

Die Residuen eines Modells sind die tatsächlichen Werte abzüglich der vorhergesagten Werte. Viele statistische Modelle treffen Annahmen über den Fehler, der durch die Residuen geschätzt wird.

1
Welche Art der Nachanpassungsanalyse von Residuen verwenden Sie?
Wenn ich eine multiple lineare OLS-Regression durchführe, anstatt die Residuen gegen angepasste Werte zu zeichnen, zeichne ich die (internen) studentisierten Residuen gegen angepasste Werte (ebenso für Kovariaten). Diese Residuen sind definiert als: e∗i=eis2(1−hii)−−−−−−−−−√ei∗=eis2(1−hii)\begin{equation} e^*_i = \frac{e_i}{\sqrt{s^2 (1-h_{ii})}} \end{equation} wobei der Rest ist und die diagonalen Elemente der sind. Um diese …

2
Warum verwenden wir Residuen, um die Annahmen zu Regressionsfehlern zu testen?
Angenommen, wir haben ein Modell .Yi=β0+β1Xi1+β2Xi2+⋯+βkXik+ϵiYi=β0+β1Xi1+β2Xi2+⋯+βkXik+ϵiY_i = \beta_0 + \beta_1X_{i1} + \beta_2X_{i2} + \dots + \beta_kX_{ik} + \epsilon_i Die Regression hat eine Reihe von Annahmen, wie zum Beispiel, dass die Fehler normal mit dem Mittelwert Null und der konstanten Varianz verteilt werden sollten. Mir wurde beigebracht, diese Annahmen unter Verwendung …

1
Unterschied zwischen Ausreißer und Inlier
Ich bin auf den Begriff Inlier in der LOF-Kennzahl (Local Outlier Factor) gestoßen. Ich bin mit dem Begriff Ausreißer vertraut (im Grunde genommen Liers - Instanzen, die sich nicht wie die übrigen Instanzen verhalten). Was bedeutet "Lieferanten" im Zusammenhang mit der Erkennung von Anomalien? und wie hängt es mit (anders …

1
Ist studentisierte Residuen v / s standardisierte Residuen im lm-Modell
Sind "studentisierte Residuen" und "standardisierte Residuen" in Regressionsmodellen gleich? Ich habe ein lineares Regressionsmodell in R erstellt und wollte den Graphen der v / s-angepassten Werte der studentisierten Residuen zeichnen, fand aber in R keinen automatisierten Weg, dies zu tun. Angenommen, ich habe ein Modell library(MASS) lm.fit <- lm(Boston$medv~(Boston$lstat)) Dann …

3
Bootstrapping-Residuen: Mache ich es richtig?
Zuallererst: Nach meinem Verständnis funktioniert das Bootstrapping von Residuen wie folgt: Modell an Daten anpassen Berechnen Sie die Residuen Probieren Sie die Residuen erneut aus und addieren Sie sie zu 1. Modell an neuen Datensatz von 3 anpassen. Wiederholen Sie die nZeiten, aber fügen Sie immer die neu abgetasteten Residuen …

2
Links schief gegen symmetrische Verteilung beobachtet
Das ist für mich ziemlich schwer zu beschreiben, aber ich werde versuchen, mein Problem verständlich zu machen. Zuerst muss man wissen, dass ich bisher eine sehr einfache lineare Regression durchgeführt habe. Bevor ich den Koeffizienten schätzte, beobachtete ich die Verteilung meines . Es ist schwer links schief. Nachdem ich das …

3
Regression logistischer Regressionsreste auf anderen Regressoren
Wenn die OLS-Regression auf die kontinuierliche Antwort angewendet wird, kann die multiple Regressionsgleichung aufgebaut werden, indem nacheinander Regressionen der Residuen auf jeder Kovariate ausgeführt werden. Meine Frage ist, gibt es eine Möglichkeit, dies mit logistischer Regression über logistische Regressionsreste zu tun ? Pr(Y=1|x,z)Pr(Y=1|x,z)\Pr(Y = 1 | x, z)xxxR1R1R_1R1R1R_1zzz

4
Ist es möglich, angepasste Residuen nach Anpassen eines linearen Modells in Bias und Varianz zu zerlegen?
Ich möchte Datenpunkte so klassifizieren, dass sie entweder ein komplexeres Modell oder kein komplexeres Modell benötigen. Mein derzeitiger Gedanke ist es, alle Daten an ein einfaches lineares Modell anzupassen und die Größe der Residuen zu beobachten, um diese Klassifizierung vorzunehmen. Ich habe dann etwas über die Verzerrungs- und Varianzbeiträge zum …


2
Warum sind Pearsons Residuen einer negativen Binomialregression kleiner als die einer Poisson-Regression?
Ich habe diese Daten: set.seed(1) predictor <- rnorm(20) set.seed(1) counts <- c(sample(1:1000, 20)) df <- data.frame(counts, predictor) Ich habe eine Poisson-Regression durchgeführt poisson_counts <- glm(counts ~ predictor, data = df, family = "poisson") Und eine negative binomiale Regression: require(MASS) nb_counts <- glm.nb(counts ~ predictor, data = df) Dann berechnete ich …




1
Wie versteht man standardisierte Residuen in der Regressionsanalyse?
Gemäß der Regressionsanalyse anhand eines Beispiels ist das Residuum die Differenz zwischen der Antwort und dem vorhergesagten Wert. Dann wird gesagt, dass jedes Residuum eine andere Varianz aufweist, sodass standardisierte Residuen berücksichtigt werden müssen. Die Varianz gilt jedoch für eine Gruppe von Werten. Wie kann ein einzelner Wert eine Varianz …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.