Im Modell y=Xβ+ϵy=Xβ+ϵ{y} = X \beta + \epsilon können wir ββ\beta mit der Normalgleichung :abschätzen. β^=(X′X)−1X′y,β^=(X′X)−1X′y,\hat{\beta} = (X'X)^{-1}X'y,und wir konnten erhalten y =X β .y^=Xβ^.y^=Xβ^.\hat{y} = X \hat{\beta}. Der Vektor der Residuen wird geschätzt durch ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,\hat{\epsilon} = y - X \hat{\beta} = (I - X (X'X)^{-1} X') y = Q …
Bei der Durchführung der Regression gehen wir von der Definition aus: Was ist der Unterschied zwischen einer Teilwahrscheinlichkeit, einer Profilwahrscheinlichkeit und einer Grenzwahrscheinlichkeit? dass, Maximum Likelihood Findet β und θ, die L (β, θ | data) maximieren. Während, Grenzwahrscheinlichkeit Wir integrieren θ aus der Wahrscheinlichkeitsgleichung, indem wir die Tatsache ausnutzen, …
Ich möchte einen Shapiro-Wilk-W-Test und einen Kolmogorov-Smirnov-Test mit den Residuen eines linearen Modells durchführen, um die Normalität zu überprüfen. Ich habe mich nur gefragt, welche Residuen dafür verwendet werden sollten - die rohen Residuen, die Pearson-Residuen, studentisierte Residuen oder standardisierte Residuen? Für einen Shapiro-Wilk-W-Test scheinen die Ergebnisse für die rohen …
Wie kann ich Zeitreihen auswerten? Ist es in Ordnung, nur den ersten Unterschied zu machen und einen Dickey-Fuller-Test durchzuführen, und wenn er stationär ist, sind wir gut? Ich habe auch online festgestellt, dass ich die Zeitreihen in Stata nachverfolgen kann: reg lncredit time predict u_lncredit, residuals twoway line u_lncredit time …
Hintergrund Ich versuche, das erste Beispiel in einem Kurs zum Anpassen von Modellen zu verstehen (das mag lächerlich einfach erscheinen). Ich habe die Berechnungen von Hand durchgeführt und sie stimmen mit dem Beispiel überein, aber wenn ich sie in R wiederhole, sind die Modellkoeffizienten deaktiviert. Ich dachte, der Unterschied könnte …
Im Allgemeinen frage ich mich, ob es immer besser ist, keine orthogonalen Polynome zu verwenden, wenn eine Regression mit Variablen höherer Ordnung angepasst wird. Insbesondere frage ich mich mit der Verwendung von R: Wenn poly()mit raw = FALSEdie gleichen angepassten Werte liefert wie poly()mit raw = TRUEund polymit raw = …
Ich versuche Informationen zu den Annahmen der PLS-Regression (single ) zu finden. Ein Vergleich der Annahmen von PLS mit denen der OLS-Regression interessiert mich besonders. yyy Ich habe viel Literatur zum Thema PLS gelesen / durchgesehen; Artikel von Wold (Svante und Herman), Abdi und vielen anderen, die jedoch keine zufriedenstellende …
Ich verstehe das Konzept der Skalierung der Datenmatrix zur Verwendung in einem linearen Regressionsmodell. In R könnten Sie beispielsweise Folgendes verwenden: scaled.data <- scale(data, scale=TRUE) Meine einzige Frage ist, für neue Beobachtungen, für die ich die Ausgabewerte vorhersagen möchte, wie sie richtig skaliert werden. Wäre es scaled.new <- (new - …
Der Standardfehler des Intercept-Terms ( ) in ist gegeben durch wobei \ bar {x} ist der Mittelwert der x_i 's.β^0β^0\hat{\beta}_0y=β1x+β0+εy=β1x+β0+εy=\beta_1x+\beta_0+\varepsilonSE(β^0)2=σ2[1n+x¯2∑ni=1(xi−x¯)2]SE(β^0)2=σ2[1n+x¯2∑i=1n(xi−x¯)2]SE(\hat{\beta}_0)^2 = \sigma^2\left[\frac{1}{n}+\frac{\bar{x}^2}{\sum_{i=1}^n(x_i-\bar{x})^2}\right]x¯x¯\bar{x}xixix_i [β^0−2SE,β^0+2SE][β^0−2SE,β^0+2SE][\hat{\beta}_0-2SE,\hat{\beta}_0+2SE] ich weiß, quantifiziert die SE Ihre Unsicherheit - zum Beispiel wird in 95% der Stichproben das Intervall [\ hat {\ beta} _0-2SE, \ hat {\ beta} _0 …
Für lineares Modell , können wir eine schöne geometrische Interpretation des geschätzten Modells über OLS haben: y = x β + e . Y ist die Projektion von Y auf den Raum aufgespannt durch X- und Rest e senkrecht zu diesem Raum durch x aufgespannt.y=xβ+ey=xβ+ey=x\beta+ey^=xβ^+e^y^=xβ^+e^\hat{y}=x\hat{\beta}+\hat{e}y^y^\hat{y}e^e^\hat{e} Meine Frage ist nun: Gibt …
Wann ist es vorzuziehen, die Maximum-Likelihood-Schätzung anstelle der gewöhnlichen kleinsten Quadrate zu verwenden? Was sind die Stärken und Grenzen eines jeden? Ich versuche, praktisches Wissen darüber zu sammeln, wo sie in allgemeinen Situationen eingesetzt werden können.
Ich habe eine multiple Regression durchgeführt, bei der das Modell als Ganzes signifikant ist und ungefähr 13% der Varianz erklärt. Ich muss jedoch den Betrag der Varianz finden, der von jedem signifikanten Prädiktor erklärt wird. Wie kann ich das mit R machen? Hier sind einige Beispieldaten und Code: D = …
In der linearen Regression, Y=XβY=XβY= X\beta , warum XXX die Design - Matrix genannt? Kann XXX bis zu einem gewissen Grad wie in der Kunst willkürlich entworfen oder konstruiert werden?
Ich habe eine Menge von Werten und y, die theoretisch exponentiell zusammenhängen:xxxyyy y=axby=axby = ax^b Eine Möglichkeit, die Koeffizienten zu erhalten, besteht darin, natürliche Logarithmen auf beiden Seiten anzuwenden und ein lineares Modell zu erstellen: > fit <- lm(log(y)~log(x)) > a <- exp(fit$coefficients[1]) > b <- fit$coefficients[2] Ein anderer Weg, …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.