ANOVA gegen multiple lineare Regression? Ich verstehe, dass diese beiden Methoden anscheinend dasselbe statistische Modell verwenden. Unter welchen Umständen sollte ich jedoch welche Methode anwenden? Was sind die Vor- und Nachteile dieser Methoden im Vergleich? Warum wird ANOVA in experimentellen Studien so häufig verwendet und ich finde kaum eine Regressionsstudie?
Ich interessiere mich für die geometrische Bedeutung der Mehrfachkorrelation RRR und des Bestimmungskoeffizienten R2R2R^2 in der Regression yi=β1+β2x2,i+⋯+βkxk,i+ϵiyi=β1+β2x2,i+⋯+βkxk,i+ϵiy_i = \beta_1 + \beta_2 x_{2,i} + \dots + \beta_k x_{k,i} + \epsilon_i oder für die Vektorschreibweise , y=Xβ+ϵy=Xβ+ϵ\mathbf{y} = \mathbf{X \beta} + \mathbf{\epsilon} Hier ist die Designmatrix XX\mathbf{X} hat nnn Zeilen und …
In der linearen Regressionsanalyse analysieren wir Ausreißer, untersuchen Multikollinearität und testen Heteroskediktie. Die Frage ist: Gibt es eine Reihenfolge, um diese anzuwenden? Ich meine, müssen wir zuerst Ausreißer analysieren und dann Multikollinearität untersuchen? Oder umgekehrt? Gibt es eine Faustregel dazu?
Zuerst dachte ich, dass die Reihenfolge keine Rolle spielt, aber dann las ich über den Gramm-Schmidt-Orthogonalisierungsprozess zur Berechnung mehrerer Regressionskoeffizienten, und jetzt habe ich Bedenken. Je später eine erklärende Variable unter den anderen Variablen indiziert wird, desto kleiner ist nach dem Gramm-Schmidt-Verfahren ihr Restvektor, weil die Restvektoren der vorhergehenden Variablen …
Wie lautet die algebraische Notation zur Berechnung des Vorhersageintervalls für die multiple Regression? Es klingt albern, aber ich habe Probleme, eine klare algebraische Notation dafür zu finden.
Ich suche eine erweiterte Fallstudie zur linearen Regression, die die erforderlichen Schritte zur Modellierung komplexer, mehrfacher nichtlinearer Beziehungen mithilfe von GLM oder OLS veranschaulicht. Es ist überraschend schwierig, Ressourcen zu finden, die über grundlegende Schulbeispiele hinausgehen: Die meisten Bücher, die ich gelesen habe, gehen nicht weiter als eine logarithmische Transformation …
Wenn wir mehrere Regressionen durchführen und sagen, dass wir die durchschnittliche Änderung in der Variablen auf eine Änderung in einer Variablen untersuchen und alle anderen Variablen konstant halten, bei welchen Werten halten wir die anderen Variablen konstant? Ihr gemeiner? Null? Irgendein Wert?yyyxxx Ich bin geneigt zu glauben, dass es irgendeinen …
Mehrere Anrechnungs ist recht einfach , wenn Sie eine haben a - priori - lineares Modell , dass Sie schätzen möchten. Die Dinge scheinen jedoch etwas kniffliger zu sein, wenn Sie tatsächlich ein Modell auswählen möchten (z. B. finden Sie die "beste" Menge von Prädiktorvariablen aus einer größeren Menge von …
Ich frage mich, wie genau die Beziehung zwischen partiellem R2R2R^2 und Koeffizienten in einem linearen Modell ist und ob ich nur einen oder beide verwenden sollte, um die Bedeutung und den Einfluss von Faktoren zu veranschaulichen. Soweit ich weiß, summaryerhalte ich mit Schätzungen der Koeffizienten und mit anovader Summe der …
Ich versuche, meinen Daten ein Modell mit mehreren linearen Regressionen mit einigen Eingabeparametern anzupassen, z. B. 3. F( x )F( x )= A x1+ B x2+ Cx3+ doder= ( A B C )T( x1 x2 x3) + d(ich)(ii)(i)F(x)=Ax1+Bx2+Cx3+dor(ii)F(x)=(A B C)T(x1 x2 x3)+d\begin{align} F(x) &= Ax_1 + Bx_2 + Cx_3 + …
Ich habe gelesen, dass dies die Bedingungen für die Verwendung des multiplen Regressionsmodells sind: die Reste des Modells sind fast normal, Die Variabilität der Residuen ist nahezu konstant die Residuen sind unabhängig und Jede Variable ist linear mit dem Ergebnis verknüpft. Wie unterscheiden sich 1 und 2? Sie können einen …
Ich habe verstanden, wie die Gratregression die Koeffizienten geometrisch gegen Null schrumpft. Außerdem weiß ich, wie man das im speziellen "Orthonormalen Fall" beweist, aber ich bin verwirrt, wie das im allgemeinen Fall über "Spektrale Zerlegung" funktioniert.
Ist die Neugestaltung eines multivariaten linearen Regressionsmodells als multiple lineare Regression völlig gleichwertig? Ich beziehe mich nicht einfach laufen separate Regressionen.ttt Ich habe an einigen Stellen gelesen (Bayesian Data Analysis - Gelman et al. Und Multivariate Old School - Marden), dass ein multivariates lineares Modell leicht als multiple Regression umparametriert …
Wikipedia und die Vignette des R-Sandwich-Pakets geben gute Informationen über die Annahmen, die OLS-Koeffizienten-Standardfehler stützen, und den mathematischen Hintergrund der Sandwich-Schätzer. Ich bin mir immer noch nicht sicher, wie das Problem der heteroskedastischen Residuen angegangen wird, wahrscheinlich, weil ich die Standard-Varianzschätzung der OLS-Koeffizienten überhaupt nicht vollständig verstehe. Was ist die …
Ich beginne mit meiner OLS-Regression: wobei D eine Dummy-Variable ist und die Schätzungen sich von Null mit einem niedrigen p-Wert unterscheiden. Ich führe dann einen Ramsey-RESET-Test durch und stelle fest, dass ich eine falsche Schreibweise der Gleichung habe. Ich beziehe also das Quadrat x ein: y=β0+β1x1+β2D+εy=β0+β1x1+β2D+ε y = \beta _0 …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.