Ist AR (1) ein Markov-Prozess?

13

Ist ein AR (1) -Prozess wie ein Markov-Prozess?yt=ρyt1+εt

Wenn ja, ist VAR (1) die Vektorversion des Markov-Prozesses?

Fliegende Schweine
quelle

Antworten:

18

Das folgende Ergebnis gilt: wenn sind unabhängig mit Werten in und sind Funktionen dann mit rekursiv definiert alsϵ1,ϵ2,Ef1,f2,fn:F×EFXn

Xn=fn(Xn1,ϵn),X0=x0F

Der Prozess in ist ein Markov-Prozess, der bei beginnt . Der Prozess ist zeitlich homogen, wenn die identisch verteilt sind und alle identisch sind. F x 0f(Xn)n0Fx0ϵf

Der AR (1) und der VAR (1) sind beide in dieser Form mit gegebene Prozesse

fn(x,ϵ)=ρx+ϵ.

Sie sind also homogene Markov-Prozesse, wenn die ϵ 's iid sind

Technisch gesehen benötigen die Räume und F eine messbare Struktur und die f-Funktionen müssen messbar sein. Es ist sehr interessant, dass ein umgekehrtes Ergebnis gilt, wenn der Raum F ein Borel-Raum ist . Für jeden Markov-Prozess ( X n ) n 0 auf einem Borel-Raum F gibt es in [ 0 , 1 ] einheitliche Zufallsvariablen ϵ 1 , ϵ 2 , und Funktionen f n : F ×EFfF(Xn)n0Fϵ1,ϵ2,[0,1] so dass mit einer Wahrscheinlichkeit von 1 X n = f n ( X n - 1 , ϵ n ) . Siehe Proposition 8.6 in Kallenberg,Grundlagen der modernen Wahrscheinlichkeit.fn:F×[0,1]F

Xn=fn(Xn1,ϵn).
NRH
quelle
6

Ein Prozess ist ein AR (1) -Prozess, wennXt

Xt=c+φXt1+εt

wo die Fehler, iid sind. Ein Prozess hat die Markov-Eigenschaft ifεt

P(Xt=xt|entire history of the process)=P(Xt=xt|Xt1=xt1)

Aus der ersten Gleichung geht hervor, dass die Wahrscheinlichkeitsverteilung von eindeutig nur von X t - 1 abhängt , also ist ein AR (1) -Prozess ein Markov-Prozess.XtXt1

Makro
quelle
3
-1, der gleiche Grund wie für ein anderes Poster. Die Antwort impliziert, dass es einfach ist, die zitierte Markov-Eigenschaft zu überprüfen. Dies ist nicht der Fall, sofern nicht anders angegeben. Es ist auch zu beachten, dass AR (1) -Prozesse definiert werden können, wobei egr; t nicht iid ist, daher sollte dies auch angesprochen werden. εt
mpiktas
1
Das Hauptproblem ist, dass wir leicht schreiben können: und dann würde der letzte Satz implizieren, dass P ( X t = x t | gesamte Geschichte) ) = P ( X t = x t | X t - 2 = x t - 2 )Xt=c+ϕc+ϕ2Xt2+ϕεt1+εtP(Xt=xt|entire history)=P(Xt=xt|Xt2=xt2).
mpiktas
Nun, markov Prozesse tun , hängt von , wenn Sie nicht auch auf konditionierten X t - 1 . Ich nehme an, ein formelleres Argument würde annehmen, dass Sie sequentiell konditionieren (dh Sie schließen nicht X t - 2 ein, es sei denn, Sie haben bereits auf X t - 1 konditioniert ). Xt2Xt1Xt2Xt1
Makro
und was Sie dort geschrieben haben, hängt tatsächlich sowohl von als auch von X t - 1 ab (durch den Fehlerterm ε t - 1 ). Die Quintessenz ist, dass die gemeinsame Wahrscheinlichkeit leicht als ein Produkt von bedingten Wahrscheinlichkeiten geschrieben werden kann, die nur eine Konditionierung zum vorherigen Zeitpunkt erfordern. Durch Parameterredundanzen können Sie dafür sorgen, dass die Verteilung von X t von X t - 2 abhängt , wenn Sie jedoch erst einmal an X t - 1 konditioniert habenXt2Xt1εt1XtXt2Xt1Es ist klar, nicht. (PS: Ich verwendete eine Standarddefinition eines AR (1) -Prozesses nach Shumway und Stoeffers Zeitreihenbuch)
Makro
Hinweis Ich sage nicht, dass die Antwort falsch ist. Ich gehe nur kurz auf die Details ein, dh, dass die zweite Gleichheit intuitiv erkennbar ist, aber wenn Sie es formal beweisen möchten, ist es meiner Meinung nach nicht so einfach.
mpiktas
2

Was ist ein Markov-Prozess? Ein stochastischer Prozess ist ein Markov-Prozess erster Ordnung, wenn die Bedingung erfüllt ist

P[X(t)=x(t)|X(0)=x(0),...,X(t1)=x(t1)]=P[X(t)=x(t)|X(t1)=x(t1)]

hält. Da der nächste Wert (dh die Verteilung des nächsten Werts) des -Prozesses nur vom aktuellen Prozesswert abhängt und nicht von der Resthistorie abhängt, handelt es sich um einen Markov-Prozess. Wenn wir den Zustand des autoregressiven Prozesses beobachten, liefern die Vorgeschichte (oder Beobachtungen) keine zusätzlichen Informationen. Dies impliziert also, dass die Wahrscheinlichkeitsverteilung des nächsten Wertes nicht durch unsere Informationen über die Vergangenheit beeinflusst wird (davon unabhängig ist).AR(1)

Gleiches gilt für VAR (1) als multivariater Markov-Prozess erster Ordnung.

Tomas
quelle
Hm, wenn nicht iid sind, ich glaube nicht , es hält. Auch Sie haben keinen Beweis erbracht, sondern nur die Eigenschaft Markov angeführt. εt
mpiktas
Ich dachte, dass sich der Markov-Prozess auf den kontinuierlichen Fall bezieht. Übliche AR-Zeitreihen sind diskret, daher sollte sie einer Markov-Kette anstelle eines Markov-Prozesses entsprechen.
joint_p
Wir beobachten also den Zustand des autoregressiven Prozesses . Die Vergangenheit ist X t - 1 , X t - 2 , . . . . Dies liefert keine zusätzlichen Informationen? XtXt1,Xt2,...
mpiktas
@joint_p, die Terminologie ist in der Literatur nicht vollständig konsistent. Historisch gesehen war die Verwendung von "chain" anstelle von "process" in der Regel ein Hinweis darauf, dass der Zustandsraum des Prozesses diskret, gelegentlich aber auch zeitlich diskret ist. Heutzutage verwenden viele "Kette", um sich auf diskrete Zeit zu beziehen, lassen aber einen allgemeinen Zustandsraum zu, wie in Markov Chain Monte Carlo. Die Verwendung von "process" ist jedoch auch korrekt.
NRH
1
-1, da der Nachweis des markovianischen Eigentums nicht erbracht wird. Auch das Argument der Handbewegung stimmt nicht mit der angegebenen Formel überein. aktuelle Zustand = , vorbei mittels t - 1 , t - 2 , . . . , next bedeutet t + 1 , aber die Formel beinhaltet nicht t + 1 . tt1,t2,...t+1t+1
mpiktas