Für welche Verteilungen bedeutet Unkorrelation Unabhängigkeit?

11

Eine altehrwürdige Erinnerung in der Statistik ist "Unkorreliertheit bedeutet nicht Unabhängigkeit". Normalerweise wird diese Erinnerung durch die psychologisch beruhigende (und wissenschaftlich korrekte) Aussage ergänzt, "wenn die beiden Variablen dennoch gemeinsam normal verteilt sind , bedeutet Unkorrelation Unabhängigkeit".

Ich kann die Anzahl der glücklichen Ausnahmen von eins auf zwei erhöhen: Wenn zwei Variablen Bernoulli-verteilt sind, impliziert Unkorrelation Unabhängigkeit. Wenn und Y zwei Bermoulli rv sind, ist X B ( q x ) ,XY , für das wir P ( X = 1 ) = E ( X ) = q x haben , und analog für Y ist ihre KovarianzXB(qx),YB(qy)P(X=1)=E(X)=qxY

Cov(X,Y)=E(XY)E(X)E(Y)=SXYp(x,y)xyqxqy

=P(X=1,Y=1)qxqy=P(X=1Y=1)P(Y=1)qxqy

=(P(X=1Y=1)qx)qy

Für die Unkorrelation benötigen wir, dass die Kovarianz Null ist

Cov(X,Y)=0P(X=1Y=1)=P(X=1)

P(X=1,Y=1)=P(X=1)P(Y=1)

Dies ist die Bedingung, die auch erforderlich ist, damit die Variablen unabhängig sind.

Meine Frage lautet also: Kennen Sie andere Verteilungen (kontinuierlich oder diskret), für die Unkorrelation Unabhängigkeit impliziert?

Bedeutung: Nehmen Sie zwei Zufallsvariablen , die Randverteilungen haben , die zur gleichen Verteilung gehören (möglicherweise mit unterschiedlichen Werten für die beteiligten Verteilungsparameter), aber sagen wir mit der gleichen Unterstützung, z. zwei Exponentiale, zwei Dreiecke usw. Sind alle Lösungen der Gleichung Cov ( X , Y ) = 0 so, dass sie aufgrund der Form / Eigenschaften der beteiligten Verteilungsfunktionen auch Unabhängigkeit implizieren? Dies ist der Fall bei den Normal-Rändern (auch wenn sie eine bivariate Normalverteilung haben) sowie bei den Bernoulli-Rändern - gibt es noch andere Fälle?X,YCov(X,Y)=0

Die Motivation hierbei ist, dass es normalerweise einfacher ist zu überprüfen, ob die Kovarianz Null ist, als zu prüfen, ob die Unabhängigkeit gilt. Wenn Sie also angesichts der theoretischen Verteilung durch Überprüfen der Kovarianz auch die Unabhängigkeit überprüfen (wie dies beim Bernoulli oder im Normalfall der Fall ist), wäre dies eine nützliche Sache zu wissen.
Wenn wir zwei Stichproben von zwei Wohnmobilen mit normalen Rändern erhalten, wissen wir, dass wir, wenn wir statistisch aus den Stichproben schließen können, dass ihre Kovarianz Null ist, auch sagen können, dass sie unabhängig sind (aber nur, weil sie normale Ränder haben). Es wäre nützlich zu wissen, ob wir ebenfalls in Fällen schließen könnten, in denen die beiden Wohnmobile Randwerte hatten, die zu einer anderen Verteilung gehörten.

Alecos Papadopoulos
quelle
Logischerweise gibt es hier keine Frage: Nehmen Sie ein Paar unabhängiger Variablen als Verteilung. Ob sie korreliert sind oder nicht, sie sind unabhängig von Fiat ! Sie müssen wirklich genauer sein, was Sie unter "Verteilung" verstehen und welche Arten von Antworten Sie nützlich finden.
whuber
@whuber Ich verstehe deinen Kommentar nicht. Ich beginne mit Unkorrelation und frage: "Wenn ich beweisen kann, dass sie nicht korreliert sind, wann bedeutet dies, dass sie auch unabhängig sind?" Da die beiden in der Frage angegebenen Ergebnisse davon abhängen, ob die Wohnmobile eine bestimmte Verteilung haben (Normal oder Bernoulli), frage ich: "Gibt es eine andere bekannte Verteilung, für die diese Ergebnisse gelten, wenn die beiden Variablen folgen?"
Alecos Papadopoulos
3
Nehmen Sie zwei beliebige unabhängige Variablen und lassen Sie F ihre Verteilung sein. F ist eine gültige Antwort auf Ihre Frage. Beachten Sie, dass Sie darum bitten, eine Bedingung zu beweisen, die per Definition immer dann wahr ist, wenn die Konsequenz wahr ist, unabhängig davon, wie hoch der Wahrheitswert ihres Vorgängers sein mag. Nach den Grundregeln der Logik sind daher alle Verteilungen unabhängiger Variablen Antworten auf Ihre Frage. X,YFF
whuber
@ Whuber, du hast offensichtlich recht. Ich habe einen Text hinzugefügt, der sich auf die Motivation für diese Frage bezieht und hoffentlich meine Motivation verdeutlicht.
Alecos Papadopoulos
2
Mit welchen Informationen beginnen Sie bei dieser Entscheidung? Aus der Formulierung Ihres Beispiels geht hervor, dass Sie für jede Variable das marginale PDF und die Information erhalten, dass jedes Variablenpaar nicht korreliert ist. Sie entscheiden dann, ob sie auch unabhängig sind. Ist das richtig?
Wahrscheinlichkeitslogik

Antworten:

9

"Wenn die beiden Variablen jedoch normal verteilt sind, bedeutet Unkorrelation Unabhängigkeit", ist ein sehr häufiger Irrtum .

Dies gilt nur, wenn sie gemeinsam normal verteilt werden.

Das Gegenbeispiel, das ich am häufigsten gesehen habe, ist normales und unabhängiges Rademacher Y (also 1 oder -1 mit einer Wahrscheinlichkeit von jeweils 0,5); dann ist auch Z = X Y normal (klar unter Berücksichtigung seiner Verteilungsfunktion), Cov ( X , Z ) = 0 (das Problem hier besteht darin, E ( X Z ) = 0 zu zeigen, z. B. indem die Erwartung an Y iteriert wird und festgestellt wird, dass X. Z ist X 2XN(0,1)YZ=XYCov(X,Z)=0E(XZ)=0YXZX2oder mit einer Wahrscheinlichkeit von jeweils 0,5) und es ist klar, dass die Variablen abhängig sind (z. B. wenn ich X > 2 kenne, dann entweder Z > 2 oder Z < - 2 , also geben mir Informationen über X Informationen über Z ). X2X>2Z>2Z<2XZ

XYFX(x)GY(y)α<1

HX,Y(x,y)=FX(x)GY(y)(1+α(1FX(x))(1FY(y)))

will be a bivariate CDF. (To obtain the marginal FX(x) from HX,Y(x,y) take the limit as y goes to infinity, where FY(y)=1. Vice-versa for Y.) Clearly by selecting different values of α you can obtain different joint distributions!

Silverfish
quelle
Indeed. I forgot the "joint".
Alecos Papadopoulos
1
@Alecos Since marginal distributions don't determine joint distribution in general (just edited my answer to make this clear), where does this leave your question?
Silverfish
1
@Alecos I think I have a better understanding of the substance of the question now: given two marginal distributions, there is an infinite set of possible joint distributions. In what circumstances does imposing the condition of zero covariance leave us with only one of those joint distributions still possible, viz the one in which the random variables are independent?
Silverfish
1
If I stick to the bivariate case, with joint MGF MX,Y(s,t) and marginal MGFs MX(s)=MX,Y(s,0) and MY(t)=MX,Y(0,t), the question becomes: when does 2stMX,Y(s,t)|s=0,t=0=sMX,Y(s,t)|s=0,t=0tMX,Y(s,t)|s=0,t=0 imply that MX,Y(s,t)=MX,Y(s,0)MX,Y(0,t)?
Silverfish
2
@Silverman I would check the concept of subindependence, en.wikipedia.org/wiki/Subindependence, to see whether this problem can be formulated in terms of moment generating functions.
Alecos Papadopoulos