Einige Gründe, warum es besser ist, mit der Autokorrelationsmatrix zu arbeiten, als mit einer Matrix mit Ihren Beobachtungen:
- Wenn Sie alle Ihre Beobachtungen berücksichtigen möchten und viele Daten haben, werden Sie am Ende ziemlich große Matrizen manipulieren (invertieren, multiplizieren). Wenn Sie mit der Autokorrelationsmatrix arbeiten, "fassen" Sie Ihre Daten einmal zusammen (in einem ziemlich effizienten Schritt, der nur eine FFT und eine inverse FFT erfordert), und von da an manipulieren Sie einfach Ihre Autokorrelationsmatrix der Größe wobei P Ihre ist Modellreihenfolge (zum Beispiel für AR-Modellierung oder sinusförmige Modellierung).P.× P.P.
- Bei einigen Daten funktioniert es einfach nicht, die Rohbeobachtungen numerisch zu verwenden, da Sie auf Situationen stoßen, in denen Sie mit Matrizen umgehen müssen, von denen nicht garantiert wird, dass sie positiv definit sind.
Betrachten wir zum Beispiel zwei Ansätze zur AR-Modellanpassung.
Direkte Nutzung der Datenmatrix
Der empirische quadratische Rekonstruktionsfehler Ihrer Daten ist:
ϵ = xT.x + xT.Γ a + aT.ΓT.x + aT.ΓT.Γ a
einxΓein
a =-( ΓT.Γ )- 1ΓT.x
ΓT.Γ
Zufällige Prozessansicht
Wenn Sie einen "zufälligen Prozess" -Winkel an das Problem anpassen, müssen Sie die Menge minimieren (den erwarteten Wert des Fehlers):
ϵ = rx( 0 ) + 2 r a + aT.R a
Und am Ende haben Sie die schmackhaftere Lösung:
a =- R.- 1r
R.
Es sieht so aus, als ob Ihr Problem das der sinusförmigen Modellierung ist (und nicht der AR-Modellierung). Hier wird viel von Hand gewinkt, aber was ich über die AR-Modellierung und die Hürden bei der Verwendung der Rohdatenmatrix gesagt habe; gilt auch für die sinusförmige Modellierung - wobei die Eigenwertzerlegung die problematische Operation anstelle der Matrixinversion ist.