Wenn und zwei Zufallsvariablen sind, die nur zwei mögliche Zustände annehmen können, wie kann ich dann zeigen, dass Unabhängigkeit impliziert? Diese Art von geht gegen das, was ich damals gelernt habe, dass keine Unabhängigkeit bedeutet ...X
Der Hinweis besagt, mit und als möglichen Zuständen zu beginnen und von dort aus zu verallgemeinern. Und ich kann das tun und , aber das impliziert nicht Unabhängigkeit ???1
Irgendwie verwirrt, wie man das mathematisch macht, denke ich.
covariance
independence
user3604869
quelle
quelle
Antworten:
Bei binären Variablen entspricht ihr Erwartungswert der Wahrscheinlichkeit, dass sie gleich eins sind. Deshalb,
E ( X Y ) = P ( X Y = 1 ) = P ( X = 1 ∩ Y = 1 )E(X)=P(X=1)E(Y)=P(Y=1)
Wenn die beiden keine Kovarianz haben, bedeutet dies , was bedeutetE(XY)=E(X)E(Y)E(XY)=E(X)E(Y)
P(X=1∩Y=1)=P(X=1)⋅P(Y=1)
Es ist trivial zu sehen, dass sich auch alle anderen gemeinsamen Wahrscheinlichkeiten unter Verwendung der Grundregeln für unabhängige Ereignisse multiplizieren (dh wenn und unabhängig sind, dann sind ihre Komplemente unabhängig usw.), was bedeutet, dass die gemeinsame Massenfunktion faktorisiert wird, was die Definition ist von zwei Zufallsvariablen unabhängig sein.AA BB
quelle
Sowohl die Korrelation als auch die Kovarianz messen die lineare Assoziation zwischen zwei gegebenen Variablen und es besteht keine Verpflichtung, irgendeine andere Form der Assoziation zu erkennen.
Diese beiden Variablen können also auf verschiedene andere nichtlineare Arten verknüpft sein, und die Kovarianz (und daher die Korrelation) kann nicht vom unabhängigen Fall unterschieden werden.
Als sehr didaktischen, künstlichen und nicht realistisch Beispiel kann man prüfen , XX , so dass P ( X = x ) = 1 / 3P(X=x)=1/3 für x = - 1 , 0 , 1x=−1,0,1 und auch prüfen , Y = X 2Y=X2 . Beachten Sie, dass sie nicht nur verknüpft sind, sondern eine Funktion der anderen. Ihre Kovarianz ist jedoch 0, da ihre Assoziation orthogonal zu der Assoziation ist, die die Kovarianz erkennen kann.
BEARBEITEN
In der Tat war die obige ursprüngliche Antwort, wie von @whuber angegeben, tatsächlich eine Bemerkung darüber, dass die Behauptung nicht universell wahr ist, wenn beide Variablen nicht notwendigerweise dichotom wären. Mein Fehler!
Also lass uns rechnen. (Das örtliche Äquivalent zu Barney Stinsons "Suit up!")
Spezieller Fall
Sind sowohl XX und YY dichotomous waren, dann kann man davon ausgehen, ohne Beschränkung der Allgemeinheit, dass beide übernehmen nur die Werte 00 und 11 mit beliebigen Wahrscheinlichkeiten pp , qq und rr gegeben durch
P ( X = 1 ) = p ∈ [ 0 , 1 ] P ( Y = 1 ) = q ∈ [ 0 , 1 ] P ( X = 1 , Y= 1 ) = r ∈ [ 0 , 1 ] ,
Notice that r=P(X=1,Y=1)r=P(X=1,Y=1) might be equal to the product p⋅q=P(X=1)P(Y=1)p⋅q=P(X=1)P(Y=1) , which would render XX and YY independent, since
P(X=0,Y=0)=1−p−q−pq=(1−p)(1−q)=P(X=0)P(Y=0)P(X=1,Y=0)=p−pq=p(1−q)=P(X=1)P(Y=0)P(X=0,Y=1)=q−pq=(1−p)q=P(X=0)P(Y=1).
Yes, rr might be equal to pqpq , BUT it can be different, as long as it respects the boundaries above.
Well, from the above joint distribution, we would have E(X)=0⋅P(X=0)+1⋅P(X=1)=P(X=1)=pE(Y)=0⋅P(Y=0)+1⋅P(Y=1)=P(Y=1)=qE(XY)=0⋅P(XY=0)+1⋅P(XY=1)=P(XY=1)=P(X=1,Y=1)=rCov(X,Y)=E(XY)−E(X)E(Y)=r−pq
Now, notice then that XX and YY are independent if and only if Cov(X,Y)=0Cov(X,Y)=0 . Indeed, if XX and YY are independent, then P(X=1,Y=1)=P(X=1)P(Y=1)P(X=1,Y=1)=P(X=1)P(Y=1) , which is to say r=pqr=pq . Therefore, Cov(X,Y)=r−pq=0Cov(X,Y)=r−pq=0 ; and, on the other hand, if Cov(X,Y)=0Cov(X,Y)=0 , then r−pq=0r−pq=0 , which is to say r=pqr=pq . Therefore, XX and YY are independent.
General Case
About the without loss of generality clause above, if XX and YY were distributed otherwise, let's say, for a<ba<b and c<dc<d ,
P(X=b)=pP(Y=d)=qP(X=b,Y=d)=r
Also, we would have E(X′)=E(X−ab−a)=E(X)−ab−aE(Y′)=E(Y−cd−c)=E(Y)−cd−cE(X′Y′)=E(X−ab−aY−cd−c)=E[(X−a)(Y−c)](b−a)(d−c)=E(XY−Xc−aY+ac)(b−a)(d−c)=E(XY)−cE(X)−aE(Y)+ac(b−a)(d−c)Cov(X′,Y′)=E(X′Y′)−E(X′)E(Y′)=E(XY)−cE(X)−aE(Y)+ac(b−a)(d−c)−E(X)−ab−aE(Y)−cd−c=[E(XY)−cE(X)−aE(Y)+ac]−[E(X)−a][E(Y)−c](b−a)(d−c)=[E(XY)−cE(X)−aE(Y)+ac]−[E(X)E(Y)−cE(X)−aE(Y)+ac](b−a)(d−c)=E(XY)−E(X)E(Y)(b−a)(d−c)=1(b−a)(d−c)Cov(X,Y).
=D
quelle
IN GENERAL:
The criterion for independence is F(x,y)=FX(x)FY(y). Or fX,Y(x,y)=fX(x)fY(y)
"If two variables are independent, their covariance is 0. But, having a covariance of 0 does not imply the variables are independent."
This is nicely explained by Macro here, and in the Wikipedia entry for independence.
independence⇒zero cov, yet
zero cov⇏independence.
Great example: X∼N(0,1), and Y=X2. Covariance is zero (and E(XY)=0, which is the criterion for orthogonality), yet they are dependent. Credit goes to this post.
IN PARTICULAR (OP problem):
These are Bernoulli rv's, X and Y with probability of success Pr(X=1), and Pr(Y=1).
cov(X,Y)=E[XY]−E[X]E[Y]=∗Pr(X=1∩Y=1)−Pr(X=1)Pr(Y=1)⟹Pr(X=1,Y=1)=Pr(X=1)Pr(Y=1).
This is equivalent to the condition for independence in Eq. (1).
(∗):
E[XY]=∗∗∑domain X, YPr(X=x∩Y=y)xy=≠0 iff x×y≠0Pr(X=1∩Y=1).
(∗∗): by LOTUS.
As pointed out below, the argument is incomplete without what Dilip Sarwate had pointed out in his comments shortly after the OP appeared. After searching around, I found this proof of the missing part here:
Similarly. A and Bc are independent events.
So, we have shown already that Pr(X=1,Y=1)=Pr(X=1)Pr(Y=1)
quelle