Die Matrix ist die Matrix "Vernichter" oder "Restmacher", die der Matrix X zugeordnet ist . Es wird "Vernichter" genannt, weil M X = 0 ist ( natürlich für seine eigene X- Matrix). Wird "Restmacher" genannt , weil M y = e , in der Regression y = X β + e . M = I - X ( X.'X )- 1X.'X.M X =0X.M y = e^y = X β+ e
Es ist eine symmetrische und idempotente Matrix. Es wird im Beweis des Gauß-Markov-Theorems verwendet.
Es wird auch im Frisch-Waugh-Lovell-Theorem verwendet , aus dem man Ergebnisse für die "partitionierte Regression" erhalten kann, die besagt, dass im Modell (in Matrixform)
y = X.1β1+ X.2β2+ u
wir haben das
β^1= ( X.'1M.2X.1)- 1( X.'1M.2) y
Da idempotent ist, können wir das Obige umschreibenM.2
β^1= ( X.'1M.2M.2X.1)- 1( X.'1M.2M.2) y
und da auch symmetrisch ist, haben wirM.2
β^1= ( [ M.2X.1]]'[ M.2X.1] )- 1( [ M.2X.1]]'[ M.2y ]
Dies ist jedoch der Schätzer der kleinsten Quadrate aus dem Modell
[ M.2y ]=[ M.2X.1] β1+ M.2u
und auch sind die Residuen, die von y nur auf der Matrix X 2 zurückgehen . M.2yyX.2
Mit anderen Worten: 1) Wenn wir zurückbilden auf der Matrix X 2 nur, und dann die Rückschritt - Residuen aus dieser Schätzung auf der Matrix M 2 X 1 nur die β 1 werden erhalten werden Schätzungen wir werden mathematisch die Schätzungen gleich wir wird erhalten, wenn wir y gleichzeitig auf X 1 und X 2 zusammen zurückführen, wie es eine übliche multiple Regression ist. yX.2M.2X.1β^1yX.1X.2
Nehmen wir nun an, dass keine Matrix ist, sondern nur ein Regressor, sagen wir x 1 . Dann ist M 2 x 1 die Residuen aus der Regression der Variablen X 1 auf der Regressormatrix X 2 . Und das bietet die Intuition hier: β 1 gibt uns die Wirkung , dass „der Teil von X 1 , die durch unerklärt X 2 “ hat auf den „Teil von Y , die durch unerklärliche blieb X 2 “.X.1x1M.2x1X.1X.2β^1X.1X.2Y.X.2
Dies ist ein symbolischer Teil der klassischen Least-Squares-Algebra.