Wenn Sie die Situation richtig betrachten, ist die Schlussfolgerung intuitiv offensichtlich und unmittelbar.
Dieser Beitrag bietet zwei Demonstrationen. Das erste, unmittelbar darunter, ist in Worten. Es entspricht einer einfachen Zeichnung, die ganz am Ende erscheint. Dazwischen steht eine Erklärung, was die Wörter und die Zeichnung bedeuten.
Die Kovarianzmatrix für p -variate Beobachtungen ist eine p x p Matrix durch links Multiplizieren einer Matrix berechnet X n p (die rezentriert Daten) durch ihre Transponierte X ' p n . Dieses Matrizenprodukt sendet Vektoren durch eine Pipeline von Vektorräumen, in denen die Dimensionen p und n sind . Folglich ist die Kovarianzmatrix, qua lineare Transformation, sendet R n in einen Unterraum , dessen Dimension höchstens min ( p , n ) .n pp×pXnpX′pnpnRnmin(p,n)Es ist unmittelbar, dass der Rang der Kovarianzmatrix nicht größer als . min(p,n) Wenn also dann ist der Rang höchstens n , was - streng genommen kleiner als p - bedeutet, dass die Kovarianzmatrix singulär ist.p>nnp
All diese Begriffe werden im Rest dieses Beitrags ausführlich erläutert.
(Wie Amoeba in einem jetzt gestrichenen Kommentar freundlich hervorhob und in einer Antwort auf eine verwandte Frage zeigt , liegt das Bild von tatsächlich in einem Codimension-1-Unterraum von R n (bestehend aus Vektoren, deren Komponenten sich zu Null summieren), weil es Alle Spalten wurden bei Null neu zentriert, daher der Rang der Stichproben-Kovarianzmatrix 1XRn1n−1X′X cannot exceed n−1.)
Linear algebra is all about tracking dimensions of vector spaces. You only need to appreciate a few fundamental concepts to have a deep intuition for assertions about rank and singularity:
Matrix multiplication represents linear transformations of vectors. An m×n matrix M represents a linear transformation from an n-dimensional space Vn to an m-dimensional space Vm. Specifically, it sends any x∈Vn to Mx=y∈Vm. That this is a linear transformation follows immediately from the definition of linear transformation and basic arithmetical properties of matrix multiplication.
Linear transformations can never increase dimensions. This means that the image of the entire vector space Vn under the transformation M (which is a sub-vector space of Vm) can have a dimension no greater than n. This is an (easy) theorem that follows from the definition of dimension.
The dimension of any sub-vector space cannot exceed that of the space in which it lies. This is a theorem, but again it is obvious and easy to prove.
The rank of a linear transformation is the dimension of its image. The rank of a matrix is the rank of the linear transformation it represents. These are definitions.
A singular matrix Mmn has rank strictly less than n (the dimension of its domain). In other words, its image has a smaller dimension. This is a definition.
To develop intuition, it helps to see the dimensions. I will therefore write the dimensions of all vectors and matrices immediately after them, as in Mmn and xn. Thus the generic formula
ym=Mmnxn
is intended to mean that the m×n matrix M, when applied to the n-vector x, produces an m-vector y.
Products of matrices can be thought of as a "pipeline" of linear transformations. Generically, suppose ya is an a-dimensional vector resulting from the successive applications of the linear transformations Mmn,Llm,…,Bbc, and Aab to the n-vector xn coming from the space Vn. This takes the vector xn successively through a set of vector spaces of dimensions m,l,…,c,b, and finally a.
Look for the bottleneck: because dimensions cannot increase (point 2) and subspaces cannot have dimensions larger than the spaces in which they lie (point 3), it follows that the dimension of the image of Vn cannot exceed the smallest dimension min(a,b,c,…,l,m,n) encountered in the pipeline.
This diagram of the pipeline, then, fully proves the result when it is applied to the product X′X: