Eine altehrwürdige Erinnerung in der Statistik ist "Unkorreliertheit bedeutet nicht Unabhängigkeit". Normalerweise wird diese Erinnerung durch die psychologisch beruhigende (und wissenschaftlich korrekte) Aussage ergänzt, "wenn die beiden Variablen dennoch gemeinsam normal verteilt sind , bedeutet Unkorrelation Unabhängigkeit".
Ich kann die Anzahl der glücklichen Ausnahmen von eins auf zwei erhöhen: Wenn zwei Variablen Bernoulli-verteilt sind, impliziert Unkorrelation Unabhängigkeit. Wenn und Y zwei Bermoulli rv sind, ist X ∼ B ( q x ) , , für das wir P ( X = 1 ) = E ( X ) = q x haben , und analog für Y ist ihre Kovarianz
Für die Unkorrelation benötigen wir, dass die Kovarianz Null ist
Dies ist die Bedingung, die auch erforderlich ist, damit die Variablen unabhängig sind.
Meine Frage lautet also: Kennen Sie andere Verteilungen (kontinuierlich oder diskret), für die Unkorrelation Unabhängigkeit impliziert?
Bedeutung: Nehmen Sie zwei Zufallsvariablen , die Randverteilungen haben , die zur gleichen Verteilung gehören (möglicherweise mit unterschiedlichen Werten für die beteiligten Verteilungsparameter), aber sagen wir mit der gleichen Unterstützung, z. zwei Exponentiale, zwei Dreiecke usw. Sind alle Lösungen der Gleichung Cov ( X , Y ) = 0 so, dass sie aufgrund der Form / Eigenschaften der beteiligten Verteilungsfunktionen auch Unabhängigkeit implizieren? Dies ist der Fall bei den Normal-Rändern (auch wenn sie eine bivariate Normalverteilung haben) sowie bei den Bernoulli-Rändern - gibt es noch andere Fälle?
Die Motivation hierbei ist, dass es normalerweise einfacher ist zu überprüfen, ob die Kovarianz Null ist, als zu prüfen, ob die Unabhängigkeit gilt. Wenn Sie also angesichts der theoretischen Verteilung durch Überprüfen der Kovarianz auch die Unabhängigkeit überprüfen (wie dies beim Bernoulli oder im Normalfall der Fall ist), wäre dies eine nützliche Sache zu wissen.
Wenn wir zwei Stichproben von zwei Wohnmobilen mit normalen Rändern erhalten, wissen wir, dass wir, wenn wir statistisch aus den Stichproben schließen können, dass ihre Kovarianz Null ist, auch sagen können, dass sie unabhängig sind (aber nur, weil sie normale Ränder haben). Es wäre nützlich zu wissen, ob wir ebenfalls in Fällen schließen könnten, in denen die beiden Wohnmobile Randwerte hatten, die zu einer anderen Verteilung gehörten.
quelle
Antworten:
"Wenn die beiden Variablen jedoch normal verteilt sind, bedeutet Unkorrelation Unabhängigkeit", ist ein sehr häufiger Irrtum .
Dies gilt nur, wenn sie gemeinsam normal verteilt werden.
Das Gegenbeispiel, das ich am häufigsten gesehen habe, ist normales und unabhängiges Rademacher Y (also 1 oder -1 mit einer Wahrscheinlichkeit von jeweils 0,5); dann ist auch Z = X Y normal (klar unter Berücksichtigung seiner Verteilungsfunktion), Cov ( X , Z ) = 0 (das Problem hier besteht darin, E ( X Z ) = 0 zu zeigen, z. B. indem die Erwartung an Y iteriert wird und festgestellt wird, dass X. Z ist X 2X∼N(0,1) Y Z=XY Cov(X,Z)=0 E(XZ)=0 Y XZ X2 oder mit einer Wahrscheinlichkeit von jeweils 0,5) und es ist klar, dass die Variablen abhängig sind (z. B. wenn ich X > 2 kenne, dann entweder Z > 2 oder Z < - 2 , also geben mir Informationen über X Informationen über Z ). −X2 X>2 Z>2 Z<−2 X Z
will be a bivariate CDF. (To obtain the marginalFX(x) from HX,Y(x,y) take the limit as y goes to infinity, where FY(y)=1 . Vice-versa for Y .) Clearly by selecting different values of α you can obtain different joint distributions!
quelle