Gibt es eine intuitive Interpretation von für eine Datenmatrix ?

107

Für eine gegebene Datenmatrix (mit Variablen in Spalten und Datenpunkten in Zeilen) scheint eine wichtige Rolle in der Statistik zu spielen. Zum Beispiel ist es ein wichtiger Teil der analytischen Lösung von gewöhnlichen kleinsten Quadraten. Oder für PCA sind seine Eigenvektoren die Hauptkomponenten der Daten.A T AAATA

Ich verstehe, wie man berechnet , aber ich habe mich gefragt, ob es eine intuitive Interpretation dessen gibt, was diese Matrix darstellt, was zu ihrer wichtigen Rolle führt.ATA

Alec
quelle
2
Die Analyse unter stats.stackexchange.com/a/66295/919 könnte eine gewisse Intuition vermitteln .
Whuber

Antworten:

125

Geometrisch heißt Matrix Matrix von Skalarprodukten (= Punktprodukte, = innere Produkte). Algebraisch wird es als Quadratsummen- und Kreuzproduktmatrix ( SSCP ) bezeichnet.AA

Sein tes Diagonalelement ist gleich , wobei Werte in der ten Spalte von und die Summe über Zeilen ist. Das te außerhalb der Diagonale liegende Element ist .& Sgr; a 2 ( i ) a ( i ) , i A Σ i j Σ a ( i ) , a ( j )ia(i)2a(i)iAija(i)a(j)

Es gibt eine Reihe wichtiger Assoziationskoeffizienten, deren quadratische Matrizen als Winkelähnlichkeiten oder SSCP-Ähnlichkeiten bezeichnet werden:

  • Teilen Sie die SSCP-Matrix durch , die Stichprobengröße oder die Anzahl der Zeilen von , und Sie erhalten die MSCP -Matrix (Mean-Square-and-Cross-Product). Die paarweise Formel dieses Assoziationsmaßes lautet daher (wobei die Vektoren und ein Spaltenpaar aus ).A x ynA xyAxynxyA

  • Wenn Sie zentrieren Spalten (Variablen) von , dann ist die Streuung (oder Co-Streuung, wenn streng zu sein) Matrix und ist die Kovarianz Matrix. Die paarweise Kovarianzformel lautet wobei und zentrierte Spalten bezeichnen.A ' A A ' A / ( n - 1 ) c x c yAAAAA/(n1) cxcycxcyn1cxcy

  • Wenn Sie z- Spalten von standardisieren (den Spaltenmittelwert subtrahieren und durch die Standardabweichung dividieren), ist die Pearson- Korrelationsmatrix : Korrelation ist Kovarianz für standardisierte Variablen. Die paarweise Korrelationsformel lautet wobei und standardisierte Spalten bezeichnen. Die Korrelation wird auch Linearitätskoeffizient genannt.A ' A / ( n - 1 ) z x z yAAA/(n1) zxzyzxzyn1zxzy

  • Wenn Sie Spalten von Einheiten skalieren (bringen Sie ihre SS, Quadratsumme, auf 1), dann ist die Cosinus- Ähnlichkeitsmatrix. Die äquivalente paarweise Formel scheint somit zu sein: wobei und L2-normalisierte Spalten bezeichnen . Cosinus-Ähnlichkeit wird auch als Proportionalitätskoeffizient bezeichnet.A ' A u x u y = x yAAA uxuyuxuy=xyx2y2uxuy

  • Wenn Sie zentrieren und dann fonds- Skala Spalten , dann ist wieder die Pearson Korrelationsmatrix, da Korrelation Cosinus für zentrierten Variablen :A ' A 1 , 2c u x c u y = c x c yAAA1,2cuxcuy=cxcycx2cy2

Lassen Sie uns neben diesen vier einige andere erwähnen, die ebenfalls auf , um das . Sie können als Alternative zur Kosinusähnlichkeit angesehen werden, da sie anders als die Normalisierung den Nenner in der Formel annehmen:AA

  • Der Identitätskoeffizient [Zegers & ten Berge, 1985] hat seinen Nenner in Form eines arithmetischen Mittels anstelle eines geometrischen Mittels: . Es kann genau dann 1 sein, wenn die zu vergleichenden Spalten von identisch sind. Axy(x2+y2)/2A

  • Ein anderer verwendbarer Koeffizient, wie er genannt wird, heißt Ähnlichkeitsverhältnis : .xyx2+y2xy=xyxy+(xy)2

  • Wenn die Werte in sind und ihre Summe in den Spalten 1 ist (z. B. Proportionen), dann ist die Matrix der Wiedergabetreue oder der Bhattacharyya- Koeffizient.AAA


1 Eine Methode zur Berechnung der Korrelations- oder Kovarianzmatrix, die von vielen Statistikpaketen verwendet wird, umgeht die Datenzentrierung und verlässt auf diese Weise direkt die SSCP-Matrix . Sei der Zeilenvektor der Spaltensummen von Daten während die Anzahl der Zeilen in den Daten ist. Dann (1) berechne die Streumatrix als [von da an wird die Kovarianzmatrix sein]; (2) die Diagonale von ist die Summe der quadratischen Abweichungen, Zeilenvektor ; (3) Berechne die Korrelationsmatrix .AAsAnC=AAss/nC/(n1)CdR=C/dd

2 Ein akuter, aber statistisch unerfahrener Leser könnte es schwierig finden, die beiden Definitionen der Korrelation in Einklang zu bringen - als "Kovarianz" (einschließlich Mittelung nach Stichprobengröße, Division durch df = "n-1") und als "Kosinus" (was impliziert) keine solche Mittelung). Tatsächlich findet jedoch keine echte Mittelwertbildung in der ersten Korrelationsformel statt. Die Sache ist, dass st. Die Abweichung, durch die die z-Standardisierung erreicht wurde, wurde wiederum mit der Division durch denselben df berechnet . und so wird der Nenner "n-1" in der Formel der Korrelation als Kovarianz vollständig aufgehoben, wenn Sie die Formel auspacken: Die Formel wird zur Formel des Kosinus . Um den empirischen Korrelationswert zu berechnen, müssen Sie nicht kennenn (außer wenn der Mittelwert berechnet wird, um zu zentrieren).

ttnphns
quelle
42

Die Matrix enthält alle Skalarprodukte aller Spalten in . Die Diagonale enthält also die quadratischen Normen der Spalten. Wenn Sie sich mit Geometrie und orthogonalen Projektionen auf den von den Spalten in aufgespannten Spaltenraum befassen , können Sie sich daran erinnern, dass Normen und innere Produkte der Vektoren, die diesen Raum aufspannen, eine zentrale Rolle bei der Berechnung der Projektion spielen. Die Regression der kleinsten Quadrate sowie die Hauptkomponenten können als orthogonale Projektionen verstanden werden.ATAAA

Beachten Sie auch, dass wenn die Spalten von orthonormal sind und somit eine orthonormale Basis für den Spaltenraum bilden, die Identitätsmatrix.AATA=I

NRH
quelle
39

@ NRH gab eine gute technische Antwort.

Wenn Sie etwas wirklich Grundlegendes wollen, können Sie sich als das Matrixäquivalent von für einen Skalar vorstellen.ATAA2

Peter Flom
quelle
5
Obwohl andere Antworten "technisch" korrekter sind, ist dies die intuitivste Antwort.
CatsLoveJazz
3

Eine wichtige Ansicht der Geometrie von ist die folgende (der in Strangs Buch über "Lineare Algebra und ihre Anwendungen" stark hervorgehobene Gesichtspunkt): Angenommen, A ist eine Matrix des Ranges k, die eine lineare Karte . Lassen Col (A) und Zeile (A) sind die Spalten- und Reihenräume sein . DannAAm×nA:RnRmA

(a) Als reelle symmetrische Matrix hat eine Basis von Eigenvektoren mit Nicht-Null-Eigenwerten . Somit:(AA):RnRn{e1,...,en}d1,,dk

(AA)(x1e1++xnen)=d1x1e1+...+dkxkek .

(b) Bereich (A) = Col (A) gemäß Definition von Col (A). Also ordnet A | Row (A) Row (A) Col (A) zu.

(c) Kern (A) ist das orthogonale Komplement von Reihe (A). Dies liegt daran, dass die Matrixmultiplikation in Bezug auf die Punktprodukte (Zeile i) * (Spalte j) definiert ist. (Also istAv=0v is in Kernel(A)vis in orthogonal complement of Row(A)

(d) und ist ein Isomorphismus .A(Rn)=A(Row(A))A|Row(A):Row(A)Col(A)

Reason: If v = r+k (r \in Row(A), k \in Kernel(A),from (c)) then
A(v) = A(r) + 0 = A(r) where A(r) = 0 <==> r = 0$.

[Gibt übrigens einen Beweis, dass Zeilenrang = Spaltenrang!]

(e) Anwenden von (d), ist ein IsomorphismusA|:Col(A)=Row(A)Col(A')=Row(A)

(f) Durch (d) und (e): und A'A ordnet Zeile (A) isomorph Zeile (A) zu.AA(Rn)=Row(A)

Marshall M. Cohen
quelle
2
Sie können eine Formel in $ und $ , um . LATEX
Placidia
2

Obwohl bereits diskutiert wurde, dass die Bedeutung von Punktprodukten hat, möchte ich nur eine grafische Darstellung dieser Multiplikation hinzufügen.ATA

Während Zeilen der Matrix (und Spalten der Matrix ) Variablen darstellen, behandeln wir jede Variablenmessung als einen mehrdimensionalen Vektor. Das Multiplizieren der Zeile von mit der Spalte von entspricht dem Punktprodukt zweier Vektoren: - das Ergebnis ist der Eintrag an der Position innerhalb der Matrix .ATArowpATcolpAdot(rowp,colp)(p,p)ATA

In ähnlicher Weise entspricht das Multiplizieren der Zeile von mit der Spalte von dem Skalarprodukt: mit dem Ergebnis an der Position .pATkAdot(rowp,colk)(p,k)

Der Eintrag der resultierenden Matrix hat die Bedeutung, wie viel der Vektor in Richtung des Vektors . Wenn das Skalarprodukt zweier Vektoren und andere ist als Null ist , einige Informationen über einen Vektor wird getragen durch einen Vektor , und umgekehrt.(p,k)ATArowpcolkrowicoljrowicolj

Diese Idee spielt eine wichtige Rolle in der Hauptkomponentenanalyse, bei der wir eine neue Darstellung unserer anfänglichen Datenmatrix finden möchten, sodass zu keiner Spalte in einer anderen Spalte mehr Informationen übertragen werden . Wenn Sie PCA genauer studieren, werden Sie feststellen, dass eine "neue Version" der Kovarianzmatrix berechnet wird und zu einer Diagonalmatrix wird, die ich Ihnen überlassen habe, um zu erkennen, dass ... in der Tat das ist, was ich im vorherigen Satz ausgedrückt habe.Aiji

Bildbeschreibung hier eingeben

camillejr
quelle
1

Es gibt Ebenen der Intuition. Für diejenigen, die mit Instatistiken der Matrixnotation vertraut sind, besteht die Intuition darin, sie als ein Quadrat der Zufallsvariablen zu betrachten: vsxE[x2]AATA

In der Matrixnotation wird eine Stichprobe der Zufallsvariablen Beobachtungen oder einer Population durch einen Spaltenvektor dargestellt:xxi

a=[x1x2xn]

Wenn Sie also einen Stichprobenmittelwert des Quadrats der Variablen möchten, erhalten Sie einfach ein Punktprodukt , das in der Matrixnotation dasselbe ist wie .x

x2¯=aan
ATA

Beachten Sie, dass, wenn der Stichprobenmittelwert der Variablen NULL ist, die Varianz gleich dem Mittelwert des Quadrats ist: , analog zu . Dies ist der Grund, warum Sie in PCA den Mittelwert Null benötigen und warum angezeigt wird, nachdem PCA die Varianzmatrix des Datensatzes zerlegt hat.σ2=E[x2]ATAATA

Aksakal
quelle