Ist

9

Ist impliziert die Unabhängigkeit von X und Y ?C.Öv(f(X.),Y.)=0f(.)X.Y.

Ich bin nur mit der folgenden Definition der Unabhängigkeit zwischen bekannt und Y .X.Y.

fx,y(x,y)=fx(x)fy(y)
Stollenm
quelle
1
Sie benötigen , nicht nur C o v ( f ( X ) , Y ) = 0C.Öv(f(X.),G(Y.))=0 für alle (messbar) f(),G()C.Öv(f(X.),Y.)=0f()
Dilip Sarwate

Antworten:

7

Beginnen wir mit der Intuition. Die Steigung der gewöhnlichen Least Squares Regression von gegen h ( X ) , für jede Funktion h , ist proportional zu der Kovarianz von h ( X ) und Y . Die Annahme ist, dass alle Regressionen Null sind (nicht nur die linearen). Wenn Sie sich vorstellen ( X , Y ), dargestellt durch eine Punktwolke (wirklich eine Wahrscheinlichkeitsdichtewolke), dann egal wie Sie sie vertikal schneiden und die Schichten neu anordnen (was die Abbildung h ausführt)Yh(X)hh(X)Y(X,Y)h) bleibt die Regression Null. Dies impliziert, dass die bedingten Erwartungen von (die die Regressionsfunktion sind) alle konstant sind. Wir könnten mit den bedingten Verteilungen herumspielen und dabei die Erwartungen konstant halten, wodurch jede Chance auf Unabhängigkeit ruiniert würde. Wir sollten daher erwarten, dass die Schlussfolgerung nicht immer zutrifft.Y

Es gibt einfache Gegenbeispiele. Betrachten Sie einen Abtastraum von neun abstrakten Elementen und ein diskretes Maß mit der Wahrscheinlichkeit bestimmt durch

Ω={ωi,j1i,j,1}

P.(ω0,0)=0;; P.(ω0,j)=1/.5(j=±1);; P.(ωich,j=1/.10) Andernfalls.

Definieren

X.(ωich,j)=j, Y.(ωich,j)=ich.

Wir könnten diese Wahrscheinlichkeiten als Array anzeigen

(121101121)

(mit allen von multiplizierten Einträgen ) indexierten in beiden Richtungen durch die Werte - 1 , 0 , 1 .1/.10- -1,0,1

Die marginalen Wahrscheinlichkeiten und f Y ( - 1 ) = f Y ( 1 ) = 4 / 10 ;

fX.(- -1)=fX.(1)=3/.10;;fX.(0)=4/.10
wie durch die Spaltensummen und Zeilensummen der Matrix berechnet, respectively. Da f X ( 0 ) f Y ( 0 ) = ( 4 / 10 ) ( 2 / 10 ) 0 = P ( ω 0 , 0 ) = f X Y ( 0 , 0 ) , diese Variablen nicht unabhängig.
fY.(- -1)=fY.(1)=4/.10;;fY.(0)=2/.10,
fX.(0)fY.(0)=(4/.10)(2/.10)0=P.(ω0,0)=fX.Y.(0,0),

Dies wurde konstruiert, um die bedingte Verteilung von bei X = 0 von den anderen bedingten Verteilungen für X = ± 1 zu unterscheiden . Sie können dies sehen, indem Sie die mittlere Spalte der Matrix mit den anderen Spalten vergleichen. Die Symmetrie in den Y- Koordinaten und in allen bedingten Wahrscheinlichkeiten zeigt sofort, dass alle bedingten Erwartungen Null sind, von wo aus alle Kovarianzen Null sind, unabhängig davon, wie die zugehörigen Werte von X den Spalten neu zugewiesen werden könnten.Y.X.=0X.=±1Y.X.

Für diejenigen, die möglicherweise nicht überzeugt sind, kann das Gegenbeispiel durch direkte Berechnung demonstriert werden - es müssen nur Funktionen berücksichtigt werden, und für jede von ihnen ist die Kovarianz Null.27

whuber
quelle