Die Residuen eines Modells sind die tatsächlichen Werte abzüglich der vorhergesagten Werte. Viele statistische Modelle treffen Annahmen über den Fehler, der durch die Residuen geschätzt wird.
Wenn ich eine multiple lineare OLS-Regression durchführe, anstatt die Residuen gegen angepasste Werte zu zeichnen, zeichne ich die (internen) studentisierten Residuen gegen angepasste Werte (ebenso für Kovariaten). Diese Residuen sind definiert als: e∗i=eis2(1−hii)−−−−−−−−−√ei∗=eis2(1−hii)\begin{equation} e^*_i = \frac{e_i}{\sqrt{s^2 (1-h_{ii})}} \end{equation} wobei der Rest ist und die diagonalen Elemente der sind. Um diese …
Angenommen, wir haben ein Modell .Yi=β0+β1Xi1+β2Xi2+⋯+βkXik+ϵiYi=β0+β1Xi1+β2Xi2+⋯+βkXik+ϵiY_i = \beta_0 + \beta_1X_{i1} + \beta_2X_{i2} + \dots + \beta_kX_{ik} + \epsilon_i Die Regression hat eine Reihe von Annahmen, wie zum Beispiel, dass die Fehler normal mit dem Mittelwert Null und der konstanten Varianz verteilt werden sollten. Mir wurde beigebracht, diese Annahmen unter Verwendung …
Ich bin auf den Begriff Inlier in der LOF-Kennzahl (Local Outlier Factor) gestoßen. Ich bin mit dem Begriff Ausreißer vertraut (im Grunde genommen Liers - Instanzen, die sich nicht wie die übrigen Instanzen verhalten). Was bedeutet "Lieferanten" im Zusammenhang mit der Erkennung von Anomalien? und wie hängt es mit (anders …
Sind "studentisierte Residuen" und "standardisierte Residuen" in Regressionsmodellen gleich? Ich habe ein lineares Regressionsmodell in R erstellt und wollte den Graphen der v / s-angepassten Werte der studentisierten Residuen zeichnen, fand aber in R keinen automatisierten Weg, dies zu tun. Angenommen, ich habe ein Modell library(MASS) lm.fit <- lm(Boston$medv~(Boston$lstat)) Dann …
Zuallererst: Nach meinem Verständnis funktioniert das Bootstrapping von Residuen wie folgt: Modell an Daten anpassen Berechnen Sie die Residuen Probieren Sie die Residuen erneut aus und addieren Sie sie zu 1. Modell an neuen Datensatz von 3 anpassen. Wiederholen Sie die nZeiten, aber fügen Sie immer die neu abgetasteten Residuen …
Das ist für mich ziemlich schwer zu beschreiben, aber ich werde versuchen, mein Problem verständlich zu machen. Zuerst muss man wissen, dass ich bisher eine sehr einfache lineare Regression durchgeführt habe. Bevor ich den Koeffizienten schätzte, beobachtete ich die Verteilung meines . Es ist schwer links schief. Nachdem ich das …
Wenn die OLS-Regression auf die kontinuierliche Antwort angewendet wird, kann die multiple Regressionsgleichung aufgebaut werden, indem nacheinander Regressionen der Residuen auf jeder Kovariate ausgeführt werden. Meine Frage ist, gibt es eine Möglichkeit, dies mit logistischer Regression über logistische Regressionsreste zu tun ? Pr(Y=1|x,z)Pr(Y=1|x,z)\Pr(Y = 1 | x, z)xxxR1R1R_1R1R1R_1zzz
Ich möchte Datenpunkte so klassifizieren, dass sie entweder ein komplexeres Modell oder kein komplexeres Modell benötigen. Mein derzeitiger Gedanke ist es, alle Daten an ein einfaches lineares Modell anzupassen und die Größe der Residuen zu beobachten, um diese Klassifizierung vorzunehmen. Ich habe dann etwas über die Verzerrungs- und Varianzbeiträge zum …
Bei der Methode der kleinsten Quadrate möchten wir die unbekannten Parameter im Modell schätzen: Y.j= α + βxj+ εj( j = 1 ... n )Y.j=α+βxj+εj(j=1 ...n)Y_j = \alpha + \beta x_j + \varepsilon_j \enspace (j=1...n) Sobald wir dies getan haben (für einige beobachtete Werte), erhalten wir die angepasste Regressionslinie: Y.j= …
Ich habe diese Daten: set.seed(1) predictor <- rnorm(20) set.seed(1) counts <- c(sample(1:1000, 20)) df <- data.frame(counts, predictor) Ich habe eine Poisson-Regression durchgeführt poisson_counts <- glm(counts ~ predictor, data = df, family = "poisson") Und eine negative binomiale Regression: require(MASS) nb_counts <- glm.nb(counts ~ predictor, data = df) Dann berechnete ich …
Wenn (dh stammt aus dem linearen Regressionsmodell), ist und in diesem Fall Residuen sind korreliert und nicht unabhängig. Wenn wir jedoch eine Regressionsdiagnose durchführen und die Annahme testen möchten, schlägt jedes Lehrbuch vor, Q-Q-Diagramme und statistische Tests für Residuen Diese wurden entwickelt, um zu testen, ob für einige .Y=AX+εY=AX+εY = …
Ich habe einen Datensatz mit zwei kategorialen nominalen Variablen (beide mit 5 Kategorien). Ich würde gerne wissen, ob (und wie) ich mögliche Korrelationen zwischen den Kategorien aus diesen beiden Variablen identifizieren kann. Mit anderen Worten, ob zum Beispiel die Ergebnisse der Kategorie in Variable 1 eine starke Korrelation mit einer …
Ich verwende PROC GLM in SAS, um eine Regressionsgleichung der folgenden Form anzupassen Y.= b0+ b1X.1+ b2X.2+ b3X.3+ b4tY=b0+b1X1+b2X2+b3X3+b4t Y = b_0 + b_1X_1 + b_2X_2 + b_3X_3 + b_4t Das QQ-Diagramm der resultierenden Redsiduals zeigt eine Abweichung von der Normalität an. Eine Transformation von ist nicht nützlich, um die …
Gemäß der Regressionsanalyse anhand eines Beispiels ist das Residuum die Differenz zwischen der Antwort und dem vorhergesagten Wert. Dann wird gesagt, dass jedes Residuum eine andere Varianz aufweist, sodass standardisierte Residuen berücksichtigt werden müssen. Die Varianz gilt jedoch für eine Gruppe von Werten. Wie kann ein einzelner Wert eine Varianz …
Warum verwenden die Standardeinstellungen in R qqplot(linear model)die standardisierten Residuen auf der y-Achse? Warum verwendet R nicht die "regulären" Residuen?
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.