Als «least-squares» getaggte Fragen

Bezieht sich auf eine allgemeine Schätztechnik, bei der der Parameterwert ausgewählt wird, um die quadratische Differenz zwischen zwei Größen zu minimieren, z. B. der beobachtete Wert einer Variablen und der erwartete Wert dieser Beobachtung, abhängig vom Parameterwert. Gaußsche lineare Modelle werden durch kleinste Quadrate angepasst, und kleinste Quadrate sind die Idee, die der Verwendung des mittleren quadratischen Fehlers (MSE) als Methode zur Bewertung eines Schätzers zugrunde liegt.


2
Korrelation zwischen OLS-Schätzern für Achsenabschnitt und Steigung
In einem einfachen Regressionsmodell y=β0+β1x+ε,y=β0+β1x+ε, y = \beta_0 + \beta_1 x + \varepsilon, OLS Schätzer ββ^OLS0β^0OLS\hat{\beta}_0^{OLS} und ββ^OLS1β^1OLS\hat{\beta}_1^{OLS} korreliert sind. Die Formel für die Korrelation zwischen den beiden Schätzern lautet (wenn ich sie richtig abgeleitet habe): Corr(β^OLS0,β^OLS1)=−∑ni=1xin−−√∑ni=1x2i−−−−−−−√.Corr⁡(β^0OLS,β^1OLS)=−∑i=1nxin∑i=1nxi2. \operatorname{Corr}(\hat{\beta}_0^{OLS},\hat{\beta}_1^{OLS}) = \frac{-\sum_{i=1}^{n}x_i}{\sqrt{n} \sqrt{\sum_{i=1}^{n}x_i^2} }. Fragen: Was ist die intuitive Erklärung für das …

4
ANOVA gegen multiple lineare Regression? Warum wird ANOVA in experimentellen Studien so häufig verwendet?
ANOVA gegen multiple lineare Regression? Ich verstehe, dass diese beiden Methoden anscheinend dasselbe statistische Modell verwenden. Unter welchen Umständen sollte ich jedoch welche Methode anwenden? Was sind die Vor- und Nachteile dieser Methoden im Vergleich? Warum wird ANOVA in experimentellen Studien so häufig verwendet und ich finde kaum eine Regressionsstudie?



6
Warum wird normalerweise die Summe der quadratischen Fehler (SSE) beim Anpassen eines Modells minimiert?
Die Frage ist sehr einfach: Warum versuchen wir beim Anpassen eines Modells an unsere linearen oder nichtlinearen Daten normalerweise, die Summe der Fehlerquadrate zu minimieren, um unseren Schätzer für den Modellparameter zu erhalten? Warum nicht eine andere Zielfunktion zum Minimieren wählen? Ich verstehe, dass die quadratische Funktion aus technischen Gründen …

3
Was bedeutet "alle anderen gleich" bei multipler Regression?
Wenn wir mehrere Regressionen durchführen und sagen, dass wir die durchschnittliche Änderung in der Variablen auf eine Änderung in einer Variablen untersuchen und alle anderen Variablen konstant halten, bei welchen Werten halten wir die anderen Variablen konstant? Ihr gemeiner? Null? Irgendein Wert?yyyxxx Ich bin geneigt zu glauben, dass es irgendeinen …

5
Wann ist die Quantilregression schlechter als die OLS?
Abgesehen von einigen besonderen Umständen, in denen wir die bedingte mittlere Beziehung unbedingt verstehen müssen, in welchen Situationen sollte ein Forscher OLS anstelle von Quantile Regression wählen? Ich möchte nicht, dass die Antwort "wenn es keinen Sinn macht, die Schwanzbeziehungen zu verstehen" lautet, da wir einfach die mediane Regression als …


2
Beweisen Sie, dass die F-Statistik der F-Verteilung folgt
In Anbetracht dieser Frage: Beweisen Sie, dass die Koeffizienten in einem OLS-Modell einer t-Verteilung mit (nk) Freiheitsgraden folgen Ich würde gerne verstehen warum F=(TSS−RSS)/(p−1)RSS/(n−p),F=(TSS−RSS)/(p−1)RSS/(n−p), F = \frac{(\text{TSS}-\text{RSS})/(p-1)}{\text{RSS}/(n-p)}, wobei ppp die Anzahl der Modellparameter und ist nnn die Anzahl der Beobachtungen und TSSTSSTSS die Gesamtvarianz, RSSRSSRSS die Residuenvarianz, ein folgt Fp−1,n−pFp−1,n−pF_{p-1,n-p} …

2
Gibt es einen Vorteil von SVD gegenüber PCA?
Ich weiß, wie man PCA und SVD mathematisch berechnet, und ich weiß, dass beide auf die lineare Regression der kleinsten Quadrate angewendet werden können. Der Hauptvorteil von SVD scheint mathematisch zu sein, dass es auf nicht quadratische Matrizen angewendet werden kann. Beide konzentrieren sich auf die Zerlegung der Matrix. Gibt …
20 pca  least-squares  svd 

2
Wie macht es Sinn, OLS nach der LASSO-Variablenauswahl durchzuführen?
Kürzlich habe ich festgestellt, dass es in der angewandten ökonometrischen Literatur nicht ungewöhnlich ist, LASSO durchzuführen, gefolgt von einer OLS-Regression unter Verwendung der ausgewählten Variablen. Ich habe mich gefragt, wie wir die Gültigkeit eines solchen Verfahrens beurteilen können. Wird es Probleme wie ausgelassene Variablen verursachen? Gibt es Beweise dafür, dass …

2
Was passiert, wenn ich eine quadratische Variable in meine Regression einbeziehe?
Ich beginne mit meiner OLS-Regression: wobei D eine Dummy-Variable ist und die Schätzungen sich von Null mit einem niedrigen p-Wert unterscheiden. Ich führe dann einen Ramsey-RESET-Test durch und stelle fest, dass ich eine falsche Schreibweise der Gleichung habe. Ich beziehe also das Quadrat x ein: y=β0+β1x1+β2D+εy=β0+β1x1+β2D+ε y = \beta _0 …


6
Intuitive Erklärung des Terms
Wenn vollen Rang hat, existiert die Umkehrung von und wir erhalten die Schätzung der kleinsten Quadrate: undXXXXTXXTXX^TXβ^=(XTX)−1XYβ^=(XTX)−1XY\hat\beta = (X^TX)^{-1}XYVar(β^)=σ2(XTX)−1Var⁡(β^)=σ2(XTX)−1\operatorname{Var}(\hat\beta) = \sigma^2(X^TX)^{-1} Wie können wir in der Varianzformel intuitiv erklären ? Die Technik der Ableitung ist für mich klar.(XTX)−1(XTX)−1(X^TX)^{-1}

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.