Die Freiheitsgrade in einer multiplen Regression sind gleich , wobei die Anzahl der Variablen ist.N−k−1N−k−1N-k-1kkk Beinhaltet die Antwortvariable (dh )? Zum Beispiel wird in dem Modell , führt dann k = 3 (dh 1 df jeweils für Y , X 1 , & X 2 )? Y Y = B …
Stellen Sie sich vor, ein Forscher untersucht einen Datensatz und führt 1000 verschiedene Regressionen durch und findet eine interessante Beziehung zwischen ihnen. Stellen Sie sich nun vor, ein anderer Forscher mit denselben Daten führt nur eine Regression aus, und es stellt sich heraus, dass der andere Forscher 1000 Regressionen durchgeführt …
In Mostly Harmless Econometrics: Ein Empiricist's Companion (Angrist und Pischke, 2009: Seite 209) las ich Folgendes: (...) Tatsächlich ist gerade identifizierter 2SLS (etwa der einfache Wald-Schätzer) ungefähr unvoreingenommen . Dies ist formal schwer zu zeigen, da gerade identifizierte 2SLS keine Momente haben (dh die Stichprobenverteilung hat fette Schwänze). Trotzdem ist …
Orthogonale Polynome in einer univariaten Menge von Punkten sind Polynome, die Werte auf diesen Punkten auf eine Weise erzeugen, dass ihr Punktprodukt und ihre paarweise Korrelation Null sind. R kann orthogonale Polynome mit der Funktion poly erzeugen . Dieselbe Funktion hat ein Variantenpolym, das orthogonale Polynome auf einer multivariaten Punktmenge …
Ich habe das Modell mit optimiert caret, aber dann das Modell mit dem gbmPaket erneut ausgeführt. Nach meinem Verständnis sollten das verwendete caretPaket gbmund die Ausgabe identisch sein. Nur ein kurzer Testlauf mit data(iris)zeigt jedoch eine Diskrepanz im Modell von etwa 5% unter Verwendung von RMSE und R ^ 2 …
Ich habe Formeln auf Wikipedia gesehen. die Mahalanobis Distanz und Hebelwirkung in Beziehung setzen: Der Mahalanobis-Abstand hängt eng mit der Verschuldungsstatistik , hat jedoch eine andere Skala:hhhD2=(N−1)(h−1N).D2=(N−1)(h−1N).D^2 = (N - 1)(h - \tfrac{1}{N}). In einem verlinkten Artikel beschreibt Wikipedia :hhh Im linearen Regressionsmodell die Hebel Punktzahl für die wird Dateneinheit …
Ich verfüge über umfangreiche Marktdaten zu Weinverkäufen in den USA und möchte die Nachfrage nach bestimmten Qualitätsweinen schätzen. Diese Marktanteile wurden grundsätzlich abgeleitet aus einem statistischen Gebrauchsmuster der Form , wo X umfasst beobachtet Produkteigenschaften, p bezeichnet Produktpreise,Uijt=X′jtβ−αpjt+ξjt+ϵijt≡δjt+ϵjtUijt=Xjt′β−αpjt+ξjt+ϵijt≡δjt+ϵjtU_{ijt} = X’_{jt}\beta - \alpha p_{jt} + \xi_{jt} + \epsilon_{ijt} \equiv \delta_{jt} + …
Bei Verwendung natürlicher (dh eingeschränkter) kubischer Splines sind die erzeugten Basisfunktionen hochgradig kollinear, und bei Verwendung in einer Regression scheinen sich sehr hohe VIF-Statistiken (Varianzinflationsfaktor) zu ergeben, die Multikollinearität signalisieren. Wenn man den Fall eines Modells für Vorhersagezwecke in Betracht zieht, ist dies ein Problem? Es scheint, als ob dies …
Ist es möglich, eine positive Korrelation zwischen einem Regressor und einer Antwort ( +0,43) zu erhalten und anschließend einen negativen Koeffizienten im angepassten Regressionsmodell für diesen Regressor zu erhalten? Ich spreche nicht über Veränderungen im Zeichen des Regressors bei einigen Modellen. Das Koeffizientenzeichen bleibt immer erhalten. Könnten die verbleibenden Variablen …
Hinweis: Diese Frage ist ein Repost, da meine vorherige Frage aus rechtlichen Gründen gelöscht werden musste. Beim Vergleich von PROC MIXED von SAS mit der Funktion lmeaus dem nlmePaket in R bin ich auf einige verwirrende Unterschiede gestoßen. Insbesondere unterscheiden sich die Freiheitsgrade in den verschiedenen Tests zwischen PROC MIXEDund …
Die Frage ist einfach: Ist es angemessen, eine lineare Regression zu verwenden, wenn Y begrenzt und diskret ist (z. B. die Testergebnisse 1 bis 100, einige vordefinierte Rangfolgen 1 bis 17)? Ist es in diesem Fall "nicht gut", eine lineare Regression zu verwenden, oder ist es völlig falsch, sie zu …
Es folgt ein Modell, das aus einem mtcarsDatensatz erstellt wurde: > ols(mpg~wt+am+qsec, mtcars) Linear Regression Model ols(formula = mpg ~ wt + am + qsec, data = mtcars) Model Likelihood Discrimination Ratio Test Indexes Obs 32 LR chi2 60.64 R2 0.850 sigma 2.4588 d.f. 3 R2 adj 0.834 d.f. 28 …
Beispiele auf dieser Seite zeigen, dass die einfache Regression stark von Ausreißern beeinflusst wird und dies durch Techniken der robusten Regression überwunden werden kann: http://www.alastairsanderson.com/R/tutorials/robust-regression-in-R/ . Ich glaube, lmrob und ltsReg sind andere robuste Regressionstechniken. Warum sollte man nicht jedes Mal eine robuste Regression (wie rlm oder rq) durchführen, anstatt …
In Bezug auf den p-Wert der multiplen linearen Regressionsanalyse wird die Einführung von der Minitab-Website unten gezeigt. Der p-Wert für jeden Term testet die Nullhypothese, dass der Koeffizient gleich Null ist (kein Effekt). Ein niedriger p-Wert (<0,05) zeigt an, dass Sie die Nullhypothese ablehnen können. Mit anderen Worten, ein Prädiktor …
Beim Lesen eines Lehrbuchs über Regression stieß ich auf folgenden Absatz: Die Schätzung der kleinsten Quadrate eines Vektors linearer Regressionskoeffizienten ( ) istββ\beta β^=(XtX)−1Xtyβ^=(XtX)−1Xty \hat{\beta} = (X^{t}X)^{-1}{X^t}y Dies ist, wenn es als Funktion der Daten (unter Berücksichtigung der Prädiktoren X als Konstanten), eine lineare Kombination der Daten. Mit dem zentralen …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.