In meinem ökonometrischen Lehrbuch (Introductory Econometrics) über OLS schreibt der Autor: "SSR muss fallen, wenn eine weitere erklärende Variable hinzugefügt wird." Warum ist es?
In meinem ökonometrischen Lehrbuch (Introductory Econometrics) über OLS schreibt der Autor: "SSR muss fallen, wenn eine weitere erklärende Variable hinzugefügt wird." Warum ist es?
Antworten:
Angenommen, Sie haben ein lineares Regressionsmodell, betrachten Sie zur einfachen Notation zuerst eine und dann zwei Kovariablen. Dies verallgemeinert sich auf zwei Sätze von Kovariablen. Das erste Modell ist das zweite Modell ist Dies wird durch Minimieren der Summe der quadratischen Residuen gelöst. Für Modell eins möchten wir und für Modell zwei, das Sie möchten, minimieren minimiere . Nehmen wir an, Sie haben die richtigen Schätzer für Modell 1 gefunden. Dann können Sie genau dieselben Restsummenquadrate in Modell 2 erhalten, indem Sie dieselben Werte für auswählen
Zusammenfassend sind die Modelle in dem Sinne verschachtelt, dass alles, was wir mit Modell 1 modellieren können, mit Modell zwei übereinstimmen kann. Modell zwei ist allgemeiner als Modell 1. Bei der Optimierung haben wir also größere Freiheit mit Modell zwei finde immer eine bessere Lösung.
Dies hat wirklich nichts mit Statistik zu tun, sondern ist eine allgemeine Tatsache über die Optimierung.
SSR ist ein Maß für die Diskrepanz zwischen den Daten und einem Schätzmodell.
Wenn Sie die Option haben, eine andere Variable zu berücksichtigen, und wenn diese Variable mehr Informationen enthält, ist die Anpassung natürlich enger, was eine niedrigere SSR bedeutet.