Sind die Zufallsvariablen

15

Können wir etwas über die Abhängigkeit einer Zufallsvariablen und eine Funktion einer Zufallsvariablen sagen? Zum Beispiel ist X2 abhängig von X ?

Rohit Banga
quelle
5
Wenn X und f(X) unabhängig sind, ist f(X) fast sicher konstant. Das heißt, es gibt a solche, dass P(f(X)=a)=1 .
Kardinal
2
@ Kardinal-warum das nicht eine Antwort machen ?
Karl
@ Cardinal, ich wollte John bitten, auf seinen Kommentar einzugehen. Ich nahm an, dass die betrachtete Funktion eine gegebene deterministische Funktion war. Dabei schrieb ich ein Argument für das von Ihnen angegebene Ergebnis auf. Alle Kommentare sind herzlich willkommen und geschätzt.
NRH
Ja, X2 ist abhängig von X , denn wenn Sie X kennen, kennen Sie X2 . X und Y sind nur dann unabhängig, wenn die Kenntnis des Wertes X Ihre Kenntnis der Verteilung von nicht beeinflusst hat Y.
Henry
2
@iamrohitbanga: Wenn X{1,1} dann ist X2=1 fast sicher. Also, X ist unabhängig von X2 in diesem besonderen Fall.
Kardinal

Antworten:

18

Hier ist ein Beweis für @ cardinals Kommentar mit einer kleinen Wendung. Wenn und f ( X ) unabhängig sind, dann ist P ( X A f - 1 ( B ) ) = P ( X A , f ( X ) B )Xf(X) WennA=f-1(B) genommen wird,ergibt sich die Gleichung P(f(X)B)=P(f(X)B)2, die die beiden Lösungen 0 und 1 hat. Somit istP(f(X

P(XAf1(B))=P(XA,f(X)B)=P(XA)P(f(X)B)=P(XA)P(Xf1(B))
A=f1(B)
P(f(X)B)=P(f(X)B)2,
für alle B . Mehr kann man nicht sagen. Wenn X und f ( X ) unabhängig sind, dann ist f ( X ) eine Variable, so dass es für jedes B entweder in B oder in B c mit Wahrscheinlichkeit 1 ist. Um mehr zu sagen, braucht man mehr Annahmen, zB dass Singleton-Mengen { b } sind messbar.P(f(X)B){0,1}BXf(X)f(X)BBBc{b}

Einzelheiten auf der Ebene der Maßnahmetheorie scheinen jedoch nicht das Hauptanliegen des OP zu sein. Wenn reell ist und f eine reelle Funktion ist (und wir verwenden beispielsweise die Borel σ -Algebra), folgt aus der Annahme von B = ( - , b ] , dass die Verteilungsfunktion für die Verteilung von f ( X ) nur die nimmt Werte 0 und 1, daher gibt es ein b, bei dem von 0 nach 1 gesprungen wird und P ( f ( X ) = b ) = 1XfσB=(,b]f(X)b01P(f(X)=b)=1.

Letztendlich lautet die Antwort auf die Frage des OP: und f ( X ) sind im Allgemeinen abhängig und nur unter ganz besonderen Umständen unabhängig. Darüber hinaus ist das Dirac-Maß δ f ( x ) für eine bedingte Verteilung von f ( X ) bei X = x immer geeignet. Dies ist eine formale Möglichkeit zu sagen, dass Sie genau wissen, was f ( X ) ist , wenn Sie X = x kennen.Xf(X)δf(x)f(X)X=xX=xf(X)ist. Diese spezielle Form der Abhängigkeit mit einer entarteten bedingten Verteilung ist charakteristisch für Funktionen von Zufallsvariablen.

NRH
quelle
(+1) Entschuldigung. Während ich meine Antwort verfasste, erhielt ich kein Update, das Sie ebenfalls eingereicht hatten. :)
Kardinal
21

Lemma : Sei eine Zufallsvariable und sei f eine (Borel-messbare) Funktion, so dass X und f ( X ) unabhängig sind. Dann ist f ( X ) fast sicher konstant. Das heißt, es gibt etwas a R, so dass P ( f ( X ) = a ) = 1 ist .XfXf(X)f(X)aRP(f(X)=a)=1

Der Beweis ist unten; aber zuerst einige Bemerkungen. Die Borel-Messbarkeit ist nur eine technische Bedingung, um sicherzustellen, dass wir Wahrscheinlichkeiten auf vernünftige und konsistente Weise zuordnen können. Die "fast sicher" Aussage ist auch nur eine technische Angelegenheit.

Das Wesen des Lemmas ist, dass, wenn wir wollen, dass und f ( X ) unabhängig sind, unsere einzigen Kandidaten Funktionen der Form f ( x ) = a sindXf(X)f(x)=a .

Vergleichen Sie dies mit dem Fall von Funktionen , bei denen X und f ( X ) nicht korreliert sind . Dies ist ein sehr viel schwächerer Zustand. Betrachten Sie in der Tat eine beliebige Zufallsvariable X mit dem Mittelwert Null, einem endlichen absoluten dritten Moment und einer Symmetrie um Null. Nehmen Sie f ( x ) = x 2 , wie im Beispiel in der Frage. Dann ist C o v ( X , f ( X ) ) = E X f (fXf(X)Xf(x)=x2nicht korreliert. , also X und f ( X ) = X 2Cov(X,f(X))=EXf(X)=EX3=0Xf(X)=X2

Im Folgenden gebe ich den einfachsten Beweis, den ich für das Lemma finden konnte. Ich habe es außerordentlich ausführlich gemacht damit alle Details so offensichtlich wie möglich sind. Wenn jemand Möglichkeiten zur Verbesserung oder Vereinfachung sieht, würde ich gerne davon erfahren.

Beweisidee : Wenn wir intuitiv kennen , dann kennen wir f ( X ) . Wir müssen also in σ ( X ) , der von X erzeugten Sigma-Algebra , ein Ereignis finden , das unser Wissen über X mit dem von f ( X ) in Beziehung setzt . Dann verwenden wir diese Informationen in Verbindung mit der angenommenen Unabhängigkeit von X und f ( X ), um zu zeigen, dass unsere verfügbaren Auswahlmöglichkeiten für f stark eingeschränkt wurden.Xf(X)σ(X)XXf(X)Xf(X)f

Beweis von Lemma : Recall , dass und Y unabhängig sind , wenn und nur wenn für alle A & sgr; ( X ) und B & sgr; ( Y ) , P ( X A , Y B ) = P ( X A ) P ( Y B ) . Sei Y = f ( X ) für eine messbare Borel-Funktion fXYAσ(X)Bσ(Y)P(XA,YB)=P(XA)P(YB)Y=f(X)fso dass und Y unabhängig sind. Definiere A ( y ) = { ω : f ( X ( ω ) ) y } . Dann ist A ( y ) = { ω : X ( ω ) f - 1 ( ( - , y ] ) } und da ( - , y ]XYA(y)={ω:f(X(ω))y}

A(y)={ω:X(ω)f1((,y])}
(,y] is a Borel set and f is Borel-measurable, then f1((,y]) is also a Borel set. This implies that A(y)σ(X) (by definition(!) of σ(X)).

Since X and Y are assumed independent and A(y)σ(X), then

P(XA(y),Yy)=P(XA(y))P(Yy)=P(f(X)y)P(f(X)y),
and this holds for all yR. But, by definition of A(y)
P(XA(y),Yy)=P(f(X)y,Yy)=P(f(X)y).
Combining these last two, we get that for every yR,
P(f(X)y)=P(f(X)y)P(f(X)y),
so P(f(X)y)=0 or P(f(X)y)=1. This means there must be some constant aR such that the distribution function of f(X) jumps from zero to one at a. In other words, f(X)=a almost surely.

NB: Note that the converse is also true by an even simpler argument. That is, if f(X)=a almost surely, then X and f(X) are independent.

cardinal
quelle
+1, I should be sorry - to steal your argument is not very polite. It's great that you spelled out the difference between independence and being uncorrelated in this context.
NRH
No "stealing" involved, nor impoliteness. :) Though many of the ideas and comments are similar (as you'd expect for a question like this!), I think the two posts are nicely complementary. In particular, I like how at the beginning of your post you didn't constrain yourself to real-valued random variables.
cardinal
@NRH accepting your answer as the initial part of your proof seems easier to grasp for a novice like me. Nevertheless +1 cardinal for your answer.
Rohit Banga