Können wir etwas über die Abhängigkeit einer Zufallsvariablen und eine Funktion einer Zufallsvariablen sagen? Zum Beispiel ist abhängig von ?
probability
random-variable
Rohit Banga
quelle
quelle
Antworten:
Hier ist ein Beweis für @ cardinals Kommentar mit einer kleinen Wendung. Wenn und f ( X ) unabhängig sind, dann ist P ( X ≤ A ≤ f - 1 ( B ) ) = P ( X ≤ A , f ( X ) ≤ B )X f(X)
WennA=f-1(B) genommen wird,ergibt sich die Gleichung
P(f(X)≤B)=P(f(X)≤B)2,
die die beiden Lösungen 0 und 1 hat. Somit istP(f(X∈
Einzelheiten auf der Ebene der Maßnahmetheorie scheinen jedoch nicht das Hauptanliegen des OP zu sein. Wenn reell ist und f eine reelle Funktion ist (und wir verwenden beispielsweise die Borel σ -Algebra), folgt aus der Annahme von B = ( - ∞ , b ] , dass die Verteilungsfunktion für die Verteilung von f ( X ) nur die nimmt Werte 0 und 1, daher gibt es ein b, bei dem von 0 nach 1 gesprungen wird und P ( f ( X ) = b ) = 1X f σ B=(−∞,b] f(X) b 0 1 P(f(X)=b)=1 .
Letztendlich lautet die Antwort auf die Frage des OP: und f ( X ) sind im Allgemeinen abhängig und nur unter ganz besonderen Umständen unabhängig. Darüber hinaus ist das Dirac-Maß δ f ( x ) für eine bedingte Verteilung von f ( X ) bei X = x immer geeignet. Dies ist eine formale Möglichkeit zu sagen, dass Sie genau wissen, was f ( X ) ist , wenn Sie X = x kennen.X f(X) δf(x) f(X) X=x X=x f(X) ist. Diese spezielle Form der Abhängigkeit mit einer entarteten bedingten Verteilung ist charakteristisch für Funktionen von Zufallsvariablen.
quelle
Lemma : Sei eine Zufallsvariable und sei f eine (Borel-messbare) Funktion, so dass X und f ( X ) unabhängig sind. Dann ist f ( X ) fast sicher konstant. Das heißt, es gibt etwas a ∈ R, so dass P ( f ( X ) = a ) = 1 ist .X f X f(X) f(X) a∈R P(f(X)=a)=1
Der Beweis ist unten; aber zuerst einige Bemerkungen. Die Borel-Messbarkeit ist nur eine technische Bedingung, um sicherzustellen, dass wir Wahrscheinlichkeiten auf vernünftige und konsistente Weise zuordnen können. Die "fast sicher" Aussage ist auch nur eine technische Angelegenheit.
Das Wesen des Lemmas ist, dass, wenn wir wollen, dass und f ( X ) unabhängig sind, unsere einzigen Kandidaten Funktionen der Form f ( x ) = a sindX f(X) f(x)=a .
Vergleichen Sie dies mit dem Fall von Funktionen , bei denen X und f ( X ) nicht korreliert sind . Dies ist ein sehr viel schwächerer Zustand. Betrachten Sie in der Tat eine beliebige Zufallsvariable X mit dem Mittelwert Null, einem endlichen absoluten dritten Moment und einer Symmetrie um Null. Nehmen Sie f ( x ) = x 2 , wie im Beispiel in der Frage. Dann ist C o v ( X , f ( X ) ) = E X f (f X f(X) X f(x)=x2 nicht korreliert. , also X und f ( X ) = X 2Cov(X,f(X))=EXf(X)=EX3=0 X f(X)=X2
Im Folgenden gebe ich den einfachsten Beweis, den ich für das Lemma finden konnte. Ich habe es außerordentlich ausführlich gemacht damit alle Details so offensichtlich wie möglich sind. Wenn jemand Möglichkeiten zur Verbesserung oder Vereinfachung sieht, würde ich gerne davon erfahren.
Beweisidee : Wenn wir intuitiv kennen , dann kennen wir f ( X ) . Wir müssen also in σ ( X ) , der von X erzeugten Sigma-Algebra , ein Ereignis finden , das unser Wissen über X mit dem von f ( X ) in Beziehung setzt . Dann verwenden wir diese Informationen in Verbindung mit der angenommenen Unabhängigkeit von X und f ( X ), um zu zeigen, dass unsere verfügbaren Auswahlmöglichkeiten für f stark eingeschränkt wurden.X f(X) σ(X) X X f(X) X f(X) f
Beweis von Lemma : Recall , dass und Y unabhängig sind , wenn und nur wenn für alle A ∈ & sgr; ( X ) und B ∈ & sgr; ( Y ) , P ( X ∈ A , Y ∈ B ) = P ( X ∈ A ) P ( Y ∈ B ) . Sei Y = f ( X ) für eine messbare Borel-Funktion fX Y A∈σ(X) B∈σ(Y) P(X∈A,Y∈B)=P(X∈A)P(Y∈B) Y=f(X) f so dass und Y unabhängig sind. Definiere A ( y ) = { ω : f ( X ( ω ) ) ≤ y } . Dann ist
A ( y ) = { ω : X ( ω ) ∈ f - 1 ( ( - ∞ , y ] ) }
und da ( - ∞ , y ]X Y A(y)={ω:f(X(ω))≤y}
SinceX and Y are assumed independent and A(y)∈σ(X) , then
NB: Note that the converse is also true by an even simpler argument. That is, iff(X)=a almost surely, then X and f(X) are independent.
quelle