Beschreibt die Autokorrelationsfunktion einen stochastischen Prozess vollständig?

31

Wird ein stochastischer Prozess vollständig durch seine Autokorrelationsfunktion beschrieben?

Wenn nicht, welche zusätzlichen Eigenschaften wären erforderlich?

Andreas
quelle

Antworten:

44

Was versteht man unter einer vollständigen Beschreibung eines stochastischen Prozesses? Nun, mathematisch gesehen ist ein stochastischer Prozess eine Sammlung von Zufallsvariablen, eine für jeden Zeitpunkt in einer Indexmenge , wo normalerweise ist die gesamte reelle Linie oder die positive reelle Linie, und eine vollständige Beschreibung bedeutet, dass wir für jede ganze Zahl und Zeitpunkte die (gemeinsamen) Verteilungen von kennen die Zufallsvariablen , ,{ X ( t ) : t T } {X(t):tT}t tT T n 1 n t 1 , t 2 , , t nT n X ( t 1 ) X ( t 2 ) , X ( t n ) X ( t ) t X ( t 1 ) X ( t 2 TTn1nt1,t2,,tnTnX(t1)X(t2),X(tn). Dies ist eine enorme Menge an Informationen: Wir müssen die CDF von für jeden Zeitpunkt , die (zweidimensionale) gemeinsame CDF von und für alle Wahlmöglichkeiten der Zeitpunkte und die (dreidimensionalen) CDFs von , und usw. usw. usw.X(t)tX(t1)) X(t2)t 1 t1t 2t2 X ( t 1 ) X(t1)X ( t 2 ) X(t2)X ( t 3 )X(t3)

Deshalb haben sich die Leute natürlich nach einfacheren Beschreibungen und restriktiveren Modellen umgesehen. Eine Vereinfachung tritt auf, wenn der Prozess nicht mit einer Änderung des Zeitursprungs zusammenhängt. Was dies bedeutet, ist das

  • Alle Zufallsvariablen im Prozess haben identische CDFs: für alle .F X ( t 1 ) ( x ) = F X ( t 2 ) ( x ) FX(t1)(x)=FX(t2)(x)t 1 , t 2t1,t2
  • Zwei beliebige Zufallsvariablen, die durch eine bestimmte Zeitspanne voneinander getrennt sind, haben dieselbe gemeinsame CDF wie jedes andere Paar von Zufallsvariablen, die durch dieselbe Zeitspanne voneinander getrennt sind . Beispielsweise werden die Zufallsvariablen und durch Sekunden getrennt, ebenso wie die Zufallsvariablen und und somitX ( t 1 ) , X(t1)X ( t 1 + τ ) X(t1+τ)τ τX ( t 2 ) , X(t2)X ( t 2 + τ ) X(t2+τ)F X ( t 1 ) , X ( t 1 + τ ) ( x , y ) = F X ( t 2 ) , X ( t 2 + τ ) ( x, Y )FX(t1),X(t1+τ)(x,y)=FX(t2),X(t2+τ)(x,y)
  • Beliebige drei Zufallsvariablen , , Abstand von und haben dieselbe gemeinsame CDF wie , , wobei auch und voneinander sind,X ( t 1 ) , X(t1)X ( t 1 + τ 1 ) X(t1+τ1)X ( t 1 + τ 1 + τ 2 ) X(t1+τ1+τ2)τ 1τ1 τ 2τ2 X ( t 2 ) , X(t2)X ( t 2 + τ 1 ) X(t2+τ1)X ( t 2 + τ 1 + τ 2 ) X(t2+τ1+τ2)τ 1 τ1τ 2τ2
  • und so weiter für alle mehrdimensionalen CDFs. Siehe zum Beispiel die Antwort von Peter K. für Einzelheiten des mehrdimensionalen Falls.

Tatsächlich hängen die probabilistischen Beschreibungen des Zufallsprozesses nicht von dem ab, was wir als Ursprung auf der Zeitachse bezeichnen: Verschieben aller Zeitpunkte um einen festen Betrag zu beschreibt die Zufallsvariablen mit der gleichen Wahrscheinlichkeit. Diese Eigenschaft wird als Strict-Sense-Stationarität bezeichnet, und ein Zufallsprozeß, der diese Eigenschaft genießt, wird als streng stationärer Zufallsprozeß oder einfacher als stationärer Zufallsprozeß bezeichnet. t 1 , t 2 , , t nt1,t2,,tn τ τt 1 + τ , t 2 + τ , , t n + τt1+τ,t2+τ,,tn+τ

Beachten Sie, dass eine strikte Stationarität für sich genommen keine bestimmte Form von CDF erfordert. Beispielsweise heißt es nicht, dass alle Variablen Gauß'sch sind.

Das Adjektiv streng legt nahe , dass möglich ist , eine lockere Form von Stationarität zu definieren. Wenn das -Ordnungsgelenk CDF von dasselbe ist wie das -Ordnungsgelenk CDF von für alle Auswahlen von und , dann heißt der Zufallsprozess stationär, um zu ordnen, und wird als stationärer Zufallsprozess -Ordnung bezeichnet. Es ist zu beachten, dass ein stationärer Zufallsprozess mit -Ordnung auch stationär ist, um für jedes Positiv zu ordnenN- tesNth X ( t 1 ) , X ( t 2 ) , ... , X ( t N ) X(t1),X(t2),,X(tN)N- tesNth X ( t 1 + τ ) , X ( t 2 + τ ) , ... , X ( t N + τ ) X(t1+τ),X(t2+τ),,X(tN+τ)t 1 , t 2 , ... , t Nt1,t2,,tN τ τN NN tesNth N- tesNth nnn< N n<Nn - ten N - ten N - N F X ( x ) = lim y F X , Y ( x , y ) N . (Dies liegt daran, dass die gemeinsame CDF mit -Ordnung die Grenze der CDF mit -Ordnung ist, da der Argumente sich annähert : eine Verallgemeinerung von ). Ein streng stationärer Zufallsprozess ist dann ein Zufallsprozess, der für alle Ordnungen stationär ist .nthNthNnFX(x)=limyFX,Y(x,y)N

Wenn ein Zufallsprozeß (mindestens) in der Größenordnung stationär ist , haben alle die gleiche Verteilung. Unter der Annahme, daß der Mittelwert existiert, ist für alle gleich . In ähnlicher Weise ist für alle und wird als Potenz des Prozesses bezeichnet. Alle physikalischen Prozesse haben eine endliche Potenz und daher ist es üblich anzunehmen, dass In diesem Fall und insbesondere in der älteren technischen Literatur wird der Prozess als Prozess zweiter Ordnung bezeichnet. Die Wahl des Namens ist unglücklich, weil sie zur Verwechslung mit der zweiten Ordnung einlädt 1 1X ( t ) X(t)E [ X ( t ) ] = μ E[X(t)]=μt tE [ ( X ( t ) ) 2 ] E[(X(t))2]t tE [ ( X ( t ) ) 2 ] < E[(X(t))2]<E [ ( X ( t ) ) 2 ] t E [ ( X ( t ) ) 2 ]Stationarität (vgl. meine Antwort auf stats.SE ), und so werden wir hier einen Prozess aufrufen, für den für alle endlich ist (ob ist eine Konstante) als endlicher Kraftprozess und vermeide diese Verwirrung. Beachten Sie aber noch einmal, dassE[(X(t))2]tE[(X(t))2]

Ein stationärer Prozess erster Ordnung muss kein Prozess mit endlicher Kraft sein.

Betrachten Sie einen zufälligen Prozess, der in der Reihenfolge stationär ist . Da die gemeinsame Verteilung von und die gleiche ist wie die gemeinsame Verteilungsfunktion von und , ist und der Wert hängt nur von . Diese Erwartungen sind für einen endlichen endlich und ihr Wert wird als Autokorrelationsfunktion des Prozesses bezeichnet: ist eine Funktion von , der Zeit Trennung der Zufallsvariablen und , und hängt nicht von2 2X ( t 1 ) X(t1)X ( t 1 + & tgr; ) X(t1+τ)X ( t 2 ) X(t2)X ( t 2 + & tgr; ) X(t2+τ)E [ X ( t 1 ) X ( t 1 + & tgr; ) ] = E [ X ( t 2 ) X ( t 2 + τ ) ] E[X(t1)X(t1+τ)]=E[X(t2)X(t2+τ)]τ τR X ( τ) = E [ X ( t ) X ( t + τ ) ] RX(τ)=E[X(t)X(t+τ)]τ τX ( t ) X(t)X ( t + τ ) X(t+τ)t tüberhaupt. Man beachte auch, dass daher ist die Autokorrelationsfunktion eine gerade Funktion ihres Arguments.E [ X ( t ) X ( t + τ ) ] = E [ X ( t + τ ) X ( t ) ] = E [ X ( t +τ ) X ( t + τ - τ ) ] = R X ( - τ ) ,

E[X(t)X(t+τ)]=E[X(t+τ)X(t)]=E[X(t+τ)X(t+ττ)]=RX(τ),

Ein stationärer Zufallsprozess endlicher Leistung zweiter Ordnung hat die Eigenschaften, dass

  1. Sein mittleres ist eine KonstanteE [ X ( t ) ]E[X(t)]
  2. Seine Autokorrelationsfunktion ist eine Funktion von , der zeitlichen Trennung der Zufallsvariablen und , und tut dies überhaupt nicht abhängig von .R X ( τ ) = E [ X ( t ) X ( t + τ ) ] RX(τ)=E[X(t)X(t+τ)]τ τX ( t ) X(t)X ( t + τ ) X(t+τ)tt

Die Annahme der Stationarität vereinfacht die Beschreibung eines zufälligen Prozesses in gewissem Maße, aber für Ingenieure und Statistiker, die daran interessiert sind, Modelle aus experimentellen Daten zu erstellen, ist das Schätzen all dieser CDFs eine nicht triviale Aufgabe, insbesondere wenn es nur ein Segment eines Stichprobenpfads gibt (oder Realisierung) an dem gemessen werden kann. Zwei Messungen, die relativ einfach durchzuführen sind (weil der Ingenieur bereits die erforderlichen Instrumente auf seiner Werkbank hat (oder Programme in MATLAB / Python / Octave / C ++ in seiner Softwarebibliothek), sind die DC-Werte von und die Autokorrelationsfunktionx ( t ) x(t)1 T T 0 x(t)D t 1TT0x(t)dtx ( t ) x(t)R x ( τ ) = 1T T 0 x(t)x(t+τ)d t Rx(τ)=1TT0x(t)x(t+τ)dt(oder seine Fourier-Transformation, das Leistungsspektrum von ). Die Verwendung dieser Messungen als Schätzungen des Mittelwerts und der Autokorrelationsfunktion eines Prozesses mit endlicher Potenz führt zu einem sehr nützlichen Modell, das wir als nächstes diskutieren.x ( t )x(t)


Ein Zufallsprozess mit endlicher Potenz wird als WSS-Prozess ( Wide-Sense-Stationary ) (auch schwach stationärer Zufallsprozess, der glücklicherweise auch den gleichen Initialismus WSS hat) bezeichnet, wenn er einen konstanten Mittelwert und seine Autokorrelationsfunktion hängt nur von der Zeitdifferenz (oder ) ab.R X ( t 1 , t 2 ) = E [ X ( t 1 ) X ( t 2 ) ] RX(t1,t2)=E[X(t1)X(t2)]t 1 - t 2 t1t2t 2 - t 1t2t1

Beachten Sie, dass die Definition nichts über die CDFs der Zufallsvariablen aussagt, aus denen der Prozess besteht. Es ist eine Beschränkung für die Momente erster und zweiter Ordnung der Zufallsvariablen. Natürlich kann eine finite-Leistungs zweite Ordnung stationär (oder -Auftrag stationär (für ) oder streng stationär) Zufallsprozess ist ein WSS - Prozess, aber die umgekehrte Notwendigkeit nicht wahr zu sein.N thNth N > 2N>2

Ein WSS-Prozess muss in keiner Reihenfolge stationär sein.

Man betrachte beispielsweise den Zufallsprozess wobei vier gleich wahrscheinliche Werte annimmt und . (Keine Angst: Die vier möglichen Abtastpfade dieses Zufallsprozesses sind nur die vier Signalverläufe eines QPSK-Signals.) Man beachte, dass jedes eine diskrete Zufallsvariable ist, die im Allgemeinen vier gleich wahrscheinliche Werte annimmt und . Es ist leicht zu erkennen, dass im Allgemeinen und{ X ( t ) : X ( t ) = cos ( t + Θ ) , - < t < } {X(t):X(t)=cos(t+Θ),<t<}Θ Θ0 , π / 2 , π 0,π/2,π3 π / 2 X ( t ) cos ( t ) , cos ( t + π / 2 ) = - sin ( t ) , cos ( t + π ) = - cos ( t ) cos3π/2X(t)cos(t),cos(t+π/2)=sin(t),cos(t+π)=cos(t) ( t + 3 π / 2 ) = sin ( t ) cos(t+3π/2)=sin(t)X ( t ) , X(t)X ( s ) X(s)unterschiedliche Verteilungen haben, und so ist der Prozess nicht einmal stationär erster Ordnung. Andererseits ist für jedes während Kurz gesagt, das Verfahren hat einen Mittelwert von Null und seine Autokorrelationsfunktion hängt nur von der Zeitdifferenz , und so der Prozess ist weiter Sinn stationär. Es ist jedoch nicht stationär erster Ordnung und kann daher auch nicht zu höheren Ordnungen stationär sein.E [ X ( t ) ] = 14 cos(t)+14 (-sin(t))+14 (-cos(t))+14 sin(t)=0

E[X(t)]=14cos(t)+14(sin(t))+14(cos(t))+14sin(t)=0
tt E [ X ( t ) X ( s ) ]= 14 [cos(t)cos(s)+(-cos(t))(-cos(s))+sin(t)sin(s)+(-sin(t))(-sin(s))]= 12 [cos(t)cos(s)+sin(t)sin(s)]= 12 cos(t-s).
E[X(t)X(s)]=14[cos(t)cos(s)+(cos(t))(cos(s))+sin(t)sin(s)+(sin(t))(sin(s))]=12[cos(t)cos(s)+sin(t)sin(s)]=12cos(ts).
t-sts

Selbst für WSS-Prozesse, die stationäre (oder streng stationäre) Zufallsprozesse zweiter Ordnung sind, kann wenig über die spezifischen Formen der Verteilungen der Zufallsvariablen ausgesagt werden. Zusamenfassend,

Ein WSS-Prozess ist nicht unbedingt stationär (in beliebiger Reihenfolge), und der Mittelwert und die Autokorrelationsfunktion eines WSS-Prozesses reichen nicht aus , um eine vollständige statistische Beschreibung des Prozesses zu geben.

Schließlich wird angenommen , dass ein stochastischer Prozess wird angenommen , eine sein Gaußsche Verfahren (das mit jedem vernünftigen Maß an Vertrauen „ zu beweisen“ ist keine triviale Aufgabe). Dies bedeutet , dass für jedes , eine Gaußsche Zufallsvariable und für alle positiven ganzen Zahlen und Auswahl von Zeitpunkten , , , die Zufallsvariablen , , sind gemeinsam Gaußsche Zufallsvariablen. Nun ist eine gemeinsame Gaußsche Dichtefunktion vollständigt tX ( t ) X(t)n 2 n2n nt 1 t1t 2t2, t n,tn N NX ( t 1 ) X(t1)X ( t 2 ) X(t2), X ( t n ) ,X(tn)( tbestimmt durch die Mittelwerte, Varianzen und Kovarianzen der Zufallsvariablen, und in diesem Fall mit Kenntnis der mittleren Funktion (es muss keine Konstante sein, wie es für den weiten Sinn erforderlich ist -Stationarität) und die Autokorrelationsfunktion für alle (es muss nicht nur von abhängen, wie es für die Breitensinn-Stationarität erforderlich ist) reicht aus, um die Statistik des Prozesses vollständig zu ermitteln. μ X ( t ) = E [ X ( t ) ] μX(t)=E[X(t)]R X ( t 1 , t 2 ) = E [ X 1 ) X ( t 2 ) ] RX(t1,t2)=E[X(t1)X(t2)]t 1 , t 2 t1,t2t 1 - t 2t1t2

Wenn der Gaußschen Prozess ist ein Prozess WSS, dann ist es auch ein streng stationärer Gaußschen Prozess. Zum Glück für Ingenieure und Signalprozessoren können viele physikalische Rauschprozesse gut als WSS-Gauß-Prozesse (und daher streng stationäre Prozesse) modelliert werden, sodass die experimentelle Beobachtung der Autokorrelationsfunktion leicht alle gemeinsamen Verteilungen liefert. Da Gaußsche Prozesse ihren Gaußschen Charakter behalten, wenn sie lineare Systeme durchlaufen, und die Ausgabe-Autokorrelationsfunktion mit der Eingabe-Autokorrelationsfunktion als R y = h * ~ h * R X

Ry=hh~RX
Damit die Ausgabestatistiken auch leicht ermittelt werden können, sind WSS-Prozesse im Allgemeinen und WSS-Gauß-Prozesse im Besonderen für technische Anwendungen von großer Bedeutung.

Dilip Sarwate
quelle
Könnten Sie bitte "White Noise" in diesem Sinne kommentieren? Per Definition ist die Autokorrelation bei die Varianz der Zufallsvariablen. Bedeutet dies, dass AWGN (Additives Weißes Gaußsches Rauschen) eine unendliche Varianz aufweist? Ich frage es, weil die Leute normalerweise schreiben , ist das falsch? Soll es geschrieben werden ? Vielen Dank. τ = 0 n ( t ) N ( 0 , N 0 / 2 ) n ( t ) N ( 0 , δ ( 0 ) N 0 / 2 )τ=0 n(t) N(0,N0/2) n(t) N(0,δ(0)N0/2)
Royi
1
@Drazick Bitte stellen Sie eine separate Frage.
Dilip Sarwate
1
Dies ist ein fantastischer Minikurs zur Definition stationärer Prozesse. So etwas habe ich noch nie gesehen - methodisch und übersichtlich angelegt. Community Wiki?
Abalter
@ Dilip Sarwate Entschuldigen Sie meine Unwissenheit. Im Beispiel. Warum ist E [X (t)] = 0 für alle t? Haben Sie Ergodizität angenommen? Wie haben Sie die Wahrscheinlichkeitsdichtefunktion von X (t) aus der Wahrscheinlichkeitsdichtefunktion von Theta abgeleitet, um den erwarteten Wert zu berechnen? E [X (t) X (s)] = E [cos (t + Theta) · cos (s + Theta)] richtig? Welche Schritte haben Sie unternommen, um diesen Ausdruck zu vereinfachen und zu dem zu gelangen, was Sie geschrieben haben? Vielen Dank
VMMF
1
@VMMF Es wird KEINE Ergodizität verwendet. ist eine diskrete Zufallsvariable, weil eine diskrete Zufallsvariable ist und mit gleicher Wahrscheinlichkeit Werte und annimmt . Ergo ist . nimmt Werte an , , und mit gleicher Wahrscheinlichkeit . Daher,X ( t ) = cos ( t + Θ ) Θ ± cos ( t ) ± sin ( t ) 1X(t)=cos(t+Θ)Θ±cos(t)±sin(t)4 E[X(t)]=0X(t)X(s)cos(t)cos(s)(-cos(t))(-cos14E[X(t)]=0X(t)X(s)cos(t)cos(s) ( s ) ) = cos ( t ) cos ( s ) sin ( t ) sin ( s ) ( - sin(cos(t))(cos(s))=cos(t)cos(s)sin(t)sin(s)( t ) ) ( - sin ( s ) ) = sin ( t ) sin ( s ) 1(sin(t))(sin(s))=sin(t)sin(s)4 E[X(t)(X(s)]=1142 ( cos(t)cos(s)+sin(t)sin(s) ) = 12 cos(t-s )E[X(t)(X(s)]=12(cos(t)cos(s)+sin(t)sin(s))=12cos(ts) . Daher
Dilip Sarwate