Angenommen, ich habe eine dimensionale multivariate Gauß-Verteilung. Und ich nehme Beobachtungen (jeder von ihnen ein -vector) aus dieser Verteilung berechnen , und die Probe Kovarianzmatrix . In dieser Arbeit geben die Autoren an, dass die mit berechnete Kovarianzmatrix der Stichprobe singulär ist.
- Wie ist es wahr oder abgeleitet?
- Irgendwelche Erklärungen?
covariance-matrix
linear-algebra
user34790
quelle
quelle
Antworten:
Einige Fakten zu Matrix-Rängen, die ohne Beweis angeboten werden (aber Beweise für alle oder fast alle von ihnen sollten entweder in standardmäßigen linearen Algebra-Texten angegeben werden oder in einigen Fällen als Übung festgelegt werden, nachdem genügend Informationen angegeben wurden, um dies zu tun):
Ob und B zwei anpassbare Matrizen sind, dann:A B
(i) Spaltenrang von = Reihenrang von AA A
(ii)rank(A)=rank(AT)=rank(ATA)=rank(AAT)
(iii)rank(AB)≤min(rank(A),rank(B))
(iv)rank(A+B)≤rank(A)+rank(B)
(v) wenn eine quadratische Matrix mit vollem Rang ist, dann Rang ( A B ) = Rang ( A )B rank(AB)=rank(A)
Betrachten Sie die Matrix der Probendaten, y . Aus dem Obigen ergibt sich , dass der Rang von y höchstens min ( n , p ) beträgt .n×p y y min(n,p)
Ferner wird aus dem oben Gesagten klar hervorgehen, dass der Rang von nicht größer als der Rang von y sein wird (unter Berücksichtigung der Berechnung von S in Matrixform, möglicherweise mit einer gewissen Vereinfachung).S y S
Wenn dann Rang ( y ) < p, in welchem Fall Rang ( S ) < p .n<p rank(y)<p rank(S)<p
quelle
Die kurze Antwort auf Ihre Frage lautet: Rang . Wenn also p > n ist , dann ist S singulär.(S)≤n−1 p>n S
Denken Sie daran, um eine detailliertere Antwort zu erhalten die (unverzerrte) Stichproben-Kovarianzmatrix wie folgt geschrieben werden kann
Tatsächlich summieren wir Matrizen, von denen jede einen Rang von 1 hat. Unter der Annahme, dass die Beobachtungen linear unabhängig sind, trägt jede Beobachtung x i in gewissem Sinne 1 zum Rang ( S ) bei , und eine 1 wird vom Rang subtrahiert (wenn p > n ist) ), weil wir jede Beobachtung um ˉ x zentrieren . Wenn jedoch Multikollinearität in den Beobachtungen vorhanden ist, kann Rang ( S ) reduziert werden, was erklärt, warum der Rang möglicherweise unter n - 1 liegt .n xi (S) p>n x¯ (S) n−1
Es wurde viel Arbeit in die Untersuchung dieses Problems gesteckt. Zum Beispiel haben ein Kollege von mir und ich eine Arbeit zu diesem Thema geschrieben, in der wir uns überlegen wollten, wie wir vorgehen sollen, wenn singulär ist, wenn es auf die lineare Diskriminanzanalyse in der Einstellung p ≫ n angewendet wird .S p≫n
quelle
Wenn Sie die Situation richtig betrachten, ist die Schlussfolgerung intuitiv offensichtlich und unmittelbar.
Dieser Beitrag bietet zwei Demonstrationen. Das erste, unmittelbar darunter, ist in Worten. Es entspricht einer einfachen Zeichnung, die ganz am Ende erscheint. Dazwischen steht eine Erklärung, was die Wörter und die Zeichnung bedeuten.
Die Kovarianzmatrix für p -variate Beobachtungen ist eine p x p Matrix durch links Multiplizieren einer Matrix berechnet X n p (die rezentriert Daten) durch ihre Transponierte X ' p n . Dieses Matrizenprodukt sendet Vektoren durch eine Pipeline von Vektorräumen, in denen die Dimensionen p und n sind . Folglich ist die Kovarianzmatrix, qua lineare Transformation, sendet R n in einen Unterraum , dessen Dimension höchstens min ( p , n ) .n p p×p Xnp X′pn p n Rn min(p,n) Es ist unmittelbar, dass der Rang der Kovarianzmatrix nicht größer als . min(p,n) Wenn also dann ist der Rang höchstens n , was - streng genommen kleiner als p - bedeutet, dass die Kovarianzmatrix singulär ist.p>n n p
All diese Begriffe werden im Rest dieses Beitrags ausführlich erläutert.
(Wie Amoeba in einem jetzt gestrichenen Kommentar freundlich hervorhob und in einer Antwort auf eine verwandte Frage zeigt , liegt das Bild von tatsächlich in einem Codimension-1-Unterraum von R n (bestehend aus Vektoren, deren Komponenten sich zu Null summieren), weil es Alle Spalten wurden bei Null neu zentriert, daher der Rang der Stichproben-Kovarianzmatrix 1X Rn 1n−1X′X cannot exceed n−1 .)
Linear algebra is all about tracking dimensions of vector spaces. You only need to appreciate a few fundamental concepts to have a deep intuition for assertions about rank and singularity:
Matrix multiplication represents linear transformations of vectors. Anm×n matrix M represents a linear transformation from an n -dimensional space Vn to an m -dimensional space Vm . Specifically, it sends any x∈Vn to Mx=y∈Vm . That this is a linear transformation follows immediately from the definition of linear transformation and basic arithmetical properties of matrix multiplication.
Linear transformations can never increase dimensions. This means that the image of the entire vector spaceVn under the transformation M (which is a sub-vector space of Vm ) can have a dimension no greater than n . This is an (easy) theorem that follows from the definition of dimension.
The dimension of any sub-vector space cannot exceed that of the space in which it lies. This is a theorem, but again it is obvious and easy to prove.
The rank of a linear transformation is the dimension of its image. The rank of a matrix is the rank of the linear transformation it represents. These are definitions.
A singular matrixMmn has rank strictly less than n (the dimension of its domain). In other words, its image has a smaller dimension. This is a definition.
To develop intuition, it helps to see the dimensions. I will therefore write the dimensions of all vectors and matrices immediately after them, as inMmn and xn . Thus the generic formula
is intended to mean that them×n matrix M , when applied to the n -vector x , produces an m -vector y .
Products of matrices can be thought of as a "pipeline" of linear transformations. Generically, supposeya is an a -dimensional vector resulting from the successive applications of the linear transformations Mmn,Llm,…,Bbc, and Aab to the n -vector xn coming from the space Vn . This takes the vector xn successively through a set of vector spaces of dimensions m,l,…,c,b, and finally a .
Look for the bottleneck: because dimensions cannot increase (point 2) and subspaces cannot have dimensions larger than the spaces in which they lie (point 3), it follows that the dimension of the image ofVn cannot exceed the smallest dimension min(a,b,c,…,l,m,n) encountered in the pipeline.
This diagram of the pipeline, then, fully proves the result when it is applied to the productX′X :
quelle