Kann jemand wie Greg veranschaulichen, aber detaillierter, wie Zufallsvariablen abhängig sein können, aber keine Kovarianz haben? Greg, ein Poster hier, gibt ein Beispiel einen Kreis mit hier .
Kann jemand diesen Prozess anhand einer Abfolge von Schritten näher erläutern, die den Prozess in mehreren Phasen veranschaulichen?
Wenn Sie ein Beispiel aus der Psychologie kennen, veranschaulichen Sie es bitte mit diesem Konzept anhand eines verwandten Beispiels. Bitte seien Sie in Ihrer Erklärung sehr präzise und sequentiell und geben Sie auch an, welche Konsequenzen dies haben könnte.
random-variable
covariance
independence
user11883
quelle
quelle
Antworten:
Die Grundidee dabei ist, dass die Kovarianz nur eine bestimmte Art von Abhängigkeit misst , daher sind die beiden nicht gleichwertig. Speziell,
Die Kovarianz ist ein Maß dafür, wie linear zwei Variablen miteinander verbunden sind. Wenn zwei Variablen nicht linear miteinander verbunden sind, wird dies nicht in der Kovarianz berücksichtigt. Eine ausführlichere Beschreibung finden Sie hier .
Die Abhängigkeit zwischen Zufallsvariablen bezieht sich auf jede Art von Beziehung zwischen den beiden, die dazu führt, dass sie "zusammen" anders handeln als "allein". Insbesondere setzt die Abhängigkeit zwischen Zufallsvariablen jede Beziehung zwischen den beiden voraus, die dazu führt, dass ihre gemeinsame Verteilung nicht das Produkt ihrer Randverteilungen ist. Dies schließt lineare Beziehungen sowie viele andere ein.
Wenn zwei Variablen nicht linear miteinander verbunden sind, können sie möglicherweise eine Kovarianz von 0 aufweisen, sind jedoch immer noch abhängig. Hier werden viele Beispiele angegeben , und in der folgenden Darstellung aus Wikipedia sind einige grafische Beispiele in der unteren Zeile aufgeführt:
Ein Beispiel, bei dem Kovarianz Null und Unabhängigkeit zwischen Zufallsvariablen äquivalente Bedingungen sind, ist, wenn die Variablen gemeinsam normalverteilt sind ( dh die beiden Variablen folgen einer bivariaten Normalverteilung , die nicht äquivalent zu den beiden Variablen ist, die einzeln normalverteilt sind). Ein weiterer Sonderfall ist, dass Paare von Bernoulli-Variablen genau dann nicht korreliert sind, wenn sie unabhängig sind (danke @cardinal). Im Allgemeinen können die beiden jedoch nicht als gleichwertig angesehen werden.
Daher kann man im Allgemeinen nicht schließen, dass zwei Variablen unabhängig sind, nur weil sie unkorreliert erscheinen (z. B. die Nullhypothese ohne Korrelation nicht zurückgewiesen hat). Man ist gut beraten, Daten zu zeichnen, um zu schließen, ob die beiden verwandt sind, und nicht nur bei einem Korrelationstest anzuhalten. Wenn Sie beispielsweise (danke @gung) eine lineare Regression durchführen (dh auf Nicht-Null-Korrelation testen) und ein nicht signifikantes Ergebnis finden, könnten Sie versucht sein, zu dem Schluss zu kommen, dass die Variablen nicht miteinander zusammenhängen, aber Sie ' Ich habe nur eine lineare Beziehung untersucht.
Ich weiß nicht viel über Psychologie, aber es ist sinnvoll, dass es dort nichtlineare Beziehungen zwischen Variablen geben kann. Als Spielzeugbeispiel scheint es möglich, dass die kognitiven Fähigkeiten nicht linear mit dem Alter zusammenhängen - sehr junge und sehr alte Menschen sind nicht so scharf wie 30 Jahre alt. Wenn man ein Maß für die kognitive Fähigkeit im Verhältnis zum Alter aufzeichnet, kann man erwarten, dass die kognitiven Fähigkeiten in einem moderaten Alter am höchsten sind und um diese herum abnehmen, was ein nichtlineares Muster wäre.
quelle
Eine Standardmethode zum Lehren / Visualisieren einer Korrelation oder Kovarianz besteht darin, die Daten zu zeichnen, Linien im Mittel von 'x' und 'y' zu zeichnen und dann Rechtecke vom Punkt der 2 Mittelwerte zu den einzelnen Datenpunkten zu zeichnen, wie folgt:
Die Rechtecke (Punkte) im oberen rechten und unteren linken Quadranten (im Beispiel rot) tragen positive Werte zur Korrelation / Kovarianz bei, während die Rechtecke (Punkte) im oberen linken und unteren rechten Quadranten (im Beispiel blau) einen negativen Beitrag leisten Werte zur Korrelation / Kovarianz. Wenn die Gesamtfläche der roten Rechtecke der Gesamtfläche der blauen Rechtecke entspricht, heben sich die positiven und negativen Werte auf und Sie erhalten eine Kovarianz von Null. Wenn mehr Fläche im roten Bereich vorhanden ist, ist die Kovarianz positiv, und wenn mehr Fläche im blauen Bereich vorhanden ist, ist die Kovarianz negativ.
Schauen wir uns nun ein Beispiel aus der vorherigen Diskussion an:
Die einzelnen Punkte folgen einer Parabel, daher sind sie abhängig. Wenn Sie 'x' kennen, kennen Sie 'y' genau, aber Sie können auch sehen, dass für jedes rote Rechteck ein passendes blaues Rechteck vorhanden ist, sodass die endgültige Kovarianz 0 ist .
quelle
R
Gibt es ein Paket, das diese Diagramme erstellt (ich erinnere mich, dass ich ein Diagramm wie dieses einmal angezeigt habe), oder haben Sie dies von Grund auf neu gemacht?polygon
oderrect
und einem Gerät zu tun , das Alpha-Transparenz unterstützt.TeachingDemos
bald zum Paket hinzufügen . Mein erster Gedanke war, den Ausdruck "Korrelationsrechtecke" auf "korrekt" als Namen der Funktion zu kürzen und dann nach einiger Zeit zu erkennen, dass der Name leicht als etwas ganz anderes missverstanden werden kann. Also muss ich mir einen besseren Namen einfallen lassen, ein paar Optionen hinzufügen und ihn auf R-Forge hochladen.Ein einfacher Test, wenn die Daten im Wesentlichen einem Muster folgen, das durch die Mittel um eine vertikale oder horizontale Achse symmetrisch ist, ist die Kovarianz ziemlich nahe bei Null. Wenn die Symmetrie beispielsweise um die y-Achse liegt, bedeutet dies, dass für jeden Wert mit einem gegebenen y eine positive x-Differenz zum Mittelwert x und eine negative Differenz zum Mittelwert x besteht. Die Addition von y * x für diese Werte ist Null. Sie können dies gut in der Sammlung von Beispielplots in den anderen Antworten sehen. Es gibt andere Muster, die eine Ko-Varianz von Null ergeben würden, aber keine Unabhängigkeit, aber viele Beispiele können leicht bewertet werden, indem nach Symmetrie gesucht wird oder nicht.
quelle
Ein Beispiel aus Wikipedia :
"Wenn die Variablen unabhängig sind, ist der Pearson-Korrelationskoeffizient 0, aber das Gegenteil ist nicht der Fall, da der Korrelationskoeffizient nur lineare Abhängigkeiten zwischen zwei Variablen erkennt. Angenommen, die Zufallsvariable X ist symmetrisch um Null verteilt und Y = X ^ 2. Dann wird Y vollständig durch X bestimmt, so dass X und Y perfekt abhängig sind, aber ihre Korrelation Null ist; sie sind nicht korreliert. In dem speziellen Fall, in dem X und Y gemeinsam normal sind, ist Unkorreliertheit jedoch gleichbedeutend mit Unabhängigkeit. "
quelle