Kovarianz vs Autokorrelation

11

Ich versuche herauszufinden, ob es einen direkten Zusammenhang zwischen diesen Konzepten gibt. Streng genommen scheinen sie im Allgemeinen unterschiedliche Konzepte zu sein. Je mehr ich darüber nachdenke, desto mehr denke ich, dass sie sich sehr ähnlich sind.

Sei WSS-Zufallsvektoren. Die Kovarianz ist gegeben durch wobei für den Hermitian des Vektors steht.X.,Y.C.X.Y.

C.X.Y.=E.[(X.- -μx)(Y.- -μy)H.]]
H.

Sei ein WSS-Zufallsvektor. Die Autokorrelationsfunktion ist gegeben durchZ.R.X.X.

R.Z.Z.(τ)=E.[(Z.(n)- -μz)(Z.(n+τ)- -μz)H.]]

Hinweis bearbeiten Diese Definition wurde für die Signalverarbeitung korrigiert, siehe Matt's Antwort unten.

Die Kovarianz beinhaltet kein Zeitkonzept, sondern setzt voraus, dass jedes Element des Zufallsvektors eine andere Realisierung eines Zufallsgenerators ist. Die Autokorrelation nimmt an, dass ein Zufallsvektor die zeitliche Entwicklung eines anfänglichen Zufallsgenerators ist. Letztendlich sind beide dieselbe mathematische Einheit, eine Folge von Zahlen. Wenn Sie , erscheint Gibt es etwas Feineres, das mir fehlt?X.=Y.=Z.

C.X.Y.=R.Z.Z.

Glocke
quelle
Die Definition von AutoCorrelation ist in der Frage falsch angegeben, wie von MattR.Z.Z.(τ)
ijuneja

Antworten:

11

Nach Ihrer Definition der Autokorrelation ist die Autokorrelation einfach die Kovarianz der beiden Zufallsvariablen und . Diese Funktion wird auch als Autokovarianz bezeichnet .Z ( n + τ )Z.(n)Z.(n+τ)

Abgesehen davon wird bei der Signalverarbeitung die Autokorrelation normalerweise definiert als

R.X.X.(t1,t2)=E.{X.(t1)X.(t2)}}

dh ohne den Mittelwert zu subtrahieren. Die Autokovarianz ist gegeben durch

C.X.X.(t1,t2)=E.{[X.(t1)- -μX.(t1)]][X.(t2)- -μX.(t2)]]}}

Diese beiden Funktionen sind miteinander verbunden

C.X.X.(t1,t2)=R.X.X.(t1,t2)- -μX.(t1)μX.(t2)
Matt L.
quelle
Wenn Sie als Variable betrachten, wird die Autokorrelation eine Funktion dieser "Zeitlücke", die sehr interessante Informationen über den Datensatz liefern kann. Betrachten Sie die Beziehung zwischen Autokorrelation, diskreten Fourier-Transformationen und dem Wiener-Khinchin-Theorem. τ
PhilMacKay
@PhilMacKay: Sicher, aber das funktioniert nur für WSS-Prozesse. Ich gab die Definitionen für den allgemeinen Fall an, in dem Prozesse nicht unbedingt stationär sind.
Matt L.
Ja, in der Tat können instationäre Prozesse für die Datenanalyse ärgerlich sein. Deshalb versuche ich immer, Daten zu de-trendieren, bevor ich meine geliebten statistischen Tools verwende! Es ist jedoch nicht immer möglich ...
PhilMacKay
0

Beachten Sie, dass Ihre Definition der Autokorrelation einen zusätzlichen Term , der einen Versatz von den beiden Folgen der Zahlen und angibt . Tatsächlich die Notation nahe, dass eine stetige Funktion ist, die für jedes , während ein Skalar ist.τZ.(n)Z.(n+τ)R.Z.Z.(τ)τR.+C.X.Y.

Wie Sie erwähnt haben, implizieren Sie, wenn Sie , dass , was ein Sonderfall von .X.=Y.=Z.τ=0R.Z.Z.(τ)

Nach meiner persönlichen Erfahrung (Astrophysik, verschiedene Sensorverarbeitung) wurde die Kovarianz als Koeffizient verwendet, um die Ähnlichkeit zweier Datensätze zu überprüfen, während die Autokorrelation verwendet wurde, um den Korrelationsabstand zu charakterisieren, dh wie schnell sich Daten zu anderen Daten entwickeln vollständig.

PhilMacKay
quelle