In welchem ​​Verhältnis stehen Orthogonalität, Korrelation und Unabhängigkeit?

25

Ich habe einen Artikel gelesen, der besagt, dass bei der Verwendung geplanter Kontraste zum Auffinden von Mitteln, die sich in einer ANOVA unterscheiden, Nebenbedingungen orthogonal sein sollten, damit sie nicht korrelieren und verhindern, dass der Fehler vom Typ I aufgeblasen wird.

Ich verstehe nicht, warum orthogonal unter keinen Umständen unkorreliert bedeuten würde. Ich kann keine visuelle / intuitive Erklärung dafür finden, deshalb habe ich versucht, diese Artikel / Antworten zu verstehen

https://www.psych.umn.edu/faculty/waller/classes/FA2010/Readings/rodgers.pdf

Was bedeutet orthogonal im Kontext der Statistik?

aber für mich widersprechen sie sich. Die erste besagt, dass zwei Variablen, wenn sie nicht korreliert und / oder orthogonal sind, linear unabhängig sind. Die Tatsache, dass sie linear unabhängig sind, bedeutet jedoch nicht, dass sie nicht korreliert und / oder orthogonal sind.

Nun gibt es auf dem zweiten Link Antworten, die Dinge wie "orthogonal bedeutet unkorreliert" und "Wenn X und Y unabhängig sind, dann sind sie orthogonal. Aber das Gegenteil ist nicht wahr" angeben.

Ein weiterer interessanter Kommentar im zweiten Link besagt, dass der Korrelationskoeffizient zwischen zwei Variablen gleich dem Cosinus des Winkels zwischen den beiden diesen Variablen entsprechenden Vektoren ist, was impliziert, dass zwei orthogonale Vektoren vollständig unkorreliert sind (was nicht der erste Artikel ist) Ansprüche).

Wie ist also die wahre Beziehung zwischen Unabhängigkeit, Orthogonalität und Korrelation? Vielleicht habe ich etwas verpasst, aber ich kann nicht herausfinden, was es ist.

Carl Levasseur
quelle
1
Befriedigt Sie keine der Antworten auf die Fragen, die rechts neben dieser Frage als "Verknüpft" und "Verknüpft" angezeigt werden?
Dilip Sarwate
2
Die beiden Links, die ich zur Verfügung gestellt habe, scheinen solide Antworten zu liefern, geben aber unterschiedliche Dinge an. Wenn ich mir verwandte Fragen ansehe, kann ich feststellen, dass Menschen, die Antworten geben, weit davon entfernt sind, miteinander übereinzustimmen
Carl Levasseur,
2
Die Verwirrung / der wahrgenommene Widerspruch könnte gänzlich auf den Unterschied zwischen linearer Unabhängigkeit und statistischer Unabhängigkeit zurückzuführen sein.
Jona
1
Ich denke, dass (ANOVA) -Einschränkungen orthogonal sein sollten, ist ein entscheidender Aspekt dieser Frage: Es geht nicht nur um Zufallsvariablen. Verglichen mit der eng verwandten Frage, die Xian als mögliches Duplikat vorgeschlagen hatte, wird auch ein besonderer Schwerpunkt auf "Unabhängigkeit" gelegt (in dieser Frage gab das OP an, "Unabhängigkeit" zu verstehen, was in den Antworten weitgehend als selbstverständlich angesehen wurde). Ich schlage also vor, es ist kein Duplikat, und zweitens @jona, dass die Verwirrung durchaus in die mehrfachen Bedeutungen von "Unabhängigkeit" eingewickelt werden kann.
Silverfish
1
Ich glaube auch, dass dies kein Duplikat ist. Diese Frage bezieht sich nicht auf die Korrelation, und in der Antwort wird der mögliche Unterschied zwischen Orthogonalität und Unkorreliertheit nicht näher erläutert. Darüber hinaus gibt es, wie das Poster hervorhob, widersprüchliche Antworten auf verschiedene verwandte Fragen.
A. Donda

Antworten:

39

Unabhängigkeit ist ein statistisches Konzept. Zwei Zufallsvariablen und sind statistisch unabhängig, wenn ihre gemeinsame Verteilung das Produkt der Randverteilungen ist, dh wenn jede Variable eine Dichte , oder allgemeiner wobei die kumulative Verteilungsfunktion jeder Zufallsvariablen bezeichnet.Y f ( x , y ) = f ( x ) f ( y ) f F ( x , y ) = F ( x ) , F ( y ) FXY.

f(x,y)=f(x)f(y)
f
F(x,y)=F(x)F(y)
F

Die Korrelation ist ein schwächeres, aber verwandtes statistisches Konzept. Die (Pearson) zweier Zufallsvariablen ist die Erwartung des Produkts der standardisierten Variablen, dh Die Variablen sind nicht korreliert, wenn . Es kann gezeigt werden, dass zwei unabhängige Zufallsvariablen notwendigerweise nicht korreliert sind, aber nicht umgekehrt.

ρ=E[X-E[X]E[(X-E[X])2]Y.-E[Y.]E[(Y.-E[Y.])2]].
ρ=0

Orthogonalität ist ein Konzept, das aus der Geometrie stammt und in der linearen Algebra und verwandten Gebieten der Mathematik verallgemeinert wurde . In der linearen Algebra ist die Orthogonalität zweier Vektoren und in inneren Produkträumen definiert , dh in Vektorräumen mit einem inneren Produkt als der Bedingung, dass Das innere Produkt kann auf verschiedene Arten definiert werden (was zu verschiedenen inneren Produkträumen führt). Wenn die Vektoren in Form von Folgen von Zahlen gegeben sind, , dann ist eine typische Wahl das Punktprodukt .uvu,v

u,v=0.
u=(u1,u2,un)u,v=ich=1nuichvich .

Orthogonalität ist daher kein statistisches Konzept an sich, und die beobachtete Verwirrung ist wahrscheinlich auf unterschiedliche Übersetzungen des Konzepts der linearen Algebra in die Statistik zurückzuführen:

a) Formal kann ein Raum von Zufallsvariablen als Vektorraum betrachtet werden. Es ist dann möglich, ein inneres Produkt in diesem Raum auf verschiedene Arten zu definieren. Eine gebräuchliche Wahl ist, es als Kovarianz zu definieren: Da die Korrelation zweier Zufallsvariablen genau Null ist, wenn die Kovarianz Null ist, ist gemäß dieser Definition die Unkorreliertheit dieselbe wie die Orthogonalität. (Eine andere Möglichkeit besteht darin, das innere Produkt von Zufallsvariablen einfach als die Erwartung des Produkts zu definieren .)

X,Y.=cOv(X,Y.)=E[(X-E[X])(Y.-E[Y.])].

b) Nicht alle Variablen, die wir in der Statistik berücksichtigen, sind Zufallsvariablen. Insbesondere in der linearen Regression haben wir unabhängige Variablen, die nicht als zufällig, sondern vordefiniert gelten. Unabhängige Variablen werden normalerweise als Folgen von Zahlen angegeben, für die die Orthogonalität natürlich durch das Skalarprodukt definiert ist (siehe oben). Wir können dann die statistischen Konsequenzen von Regressionsmodellen untersuchen, bei denen die unabhängigen Variablen orthogonal sind oder nicht. Orthogonalität hat in diesem Zusammenhang keine spezifisch statistische Definition, und noch mehr: Sie gilt nicht für Zufallsvariablen.

Ergänzung zu Silverfishs Kommentar: Orthogonalität ist nicht nur in Bezug auf die ursprünglichen Regressoren relevant, sondern auch in Bezug auf Kontraste, da (Mengen von) einfachen Kontrasten (angegeben durch Kontrastvektoren) als Transformationen der Entwurfsmatrix, dh der Menge, gesehen werden können von unabhängigen Variablen in eine neue Menge von unabhängigen Variablen. Orthogonalität für Kontraste ist definiert über das Punktprodukt. Wenn die ursprünglichen Regressoren zueinander orthogonal sind und man orthogonale Kontraste anwendet, sind die neuen Regressoren ebenfalls zueinander orthogonal. Dies stellt sicher, dass die Menge der Kontraste als eine Zerlegung der Varianz angesehen werden kann, z. B. in Haupteffekte und Wechselwirkungen, die der ANOVA zugrunde liegen .

Da gemäß Variante a) Unkorreliertheit und Orthogonalität nur unterschiedliche Namen für dasselbe sind, ist es meiner Meinung nach am besten, den Begriff nicht in diesem Sinne zu verwenden. Wenn wir über die Unkorreliertheit von Zufallsvariablen sprechen wollen, sagen wir es einfach und komplizieren die Sache nicht, indem wir ein anderes Wort mit einem anderen Hintergrund und anderen Implikationen verwenden. Dies setzt auch den Begriff der Orthogonalität frei, der gemäß Variante b) zu verwenden ist, was insbesondere bei der Diskussion der multiplen Regression von großem Nutzen ist. Umgekehrt sollten wir vermeiden, den Begriff Korrelation auf unabhängige Variablen anzuwenden, da es sich nicht um Zufallsvariablen handelt.


Die Darstellung von Rodgers et al. Stimmt weitgehend mit dieser Ansicht überein, zumal sie Orthogonalität als einen Unterschied zur Unkorreliertheit verstehen. Sie wenden den Begriff Korrelation jedoch auf nicht zufällige Variablen (Zahlenfolgen) an. Dies ist statistisch nur in Bezug auf den Probenkorrelationskoeffizienten sinnvoll . Ich würde dennoch empfehlen, diese Verwendung des Begriffs zu vermeiden, es sei denn, die Zahlenfolge wird als Folge von Realisierungen einer Zufallsvariablen betrachtet.r

Ich habe Links zu den Antworten auf die beiden verwandten Fragen im obigen Text verteilt, die Ihnen helfen sollen, sie in den Kontext dieser Antwort zu stellen.

A. Donda
quelle
1
+1 Die Unterscheidungen, die Sie hier treffen, sind sehr klar und hilfreich - ich habe den gesamten Beitrag gelesen.
whuber
+1 Es hat mir gefallen, wie Sie die anderen Antworten zusammengestellt haben, die ansonsten widersprüchlich erscheinen könnten. Vielleicht wäre es in Teil (b) schön, etwas spezielles über experimentelles Design oder ANOVA zu erwähnen (da dies in der Frage des OP erwähnt wurde) - es ist im Kontext Ihrer Antwort nicht sofort offensichtlich, warum "Orthogonalität" interessant sein könnte oder in der Tat wünschenswerte Eigenschaft einer unabhängigen Variablen.
Silverfish
@Silverfish, du hast recht, ich werde versuchen, das hinzuzufügen.
A. Donda
2
Ich möchte mich von Whubers Laudatio unterscheiden. Die Definition der Unabhängigkeit ist schrecklich: es scheint , dass Zufallsvariablen zu implizieren und hat die gleiche kumulative Wahrscheinlichkeitsverteilungsfunktion (CDF oder CDF) , die hier durch bezeichnet . Und nein, und bezeichnen nicht die verschiedenen CDF von und . ist eine reelle Funktion einer reellen Variablen, und und bezeichnen die Werte dieser Funktion bei den Zahlen undXY.F()F(x)F(y)XY.F()F(x)F(y)xy. Die korrekte Formulierung wäre
FX,Y.(x,y)=FX(x)FY.(y) für alle x und y,-<x,y<.
Dilip Sarwate
2
@ DilipSarwate, puh-lease ...
A. Donda
0

Hier ist meine intuitive Sichtweise: Die Aussage, dass x und y nicht korreliert / orthogonal sind, bedeutet, dass die Kenntnis des Wertes von x oder y keine Vorhersage des anderen ermöglicht - x und y sind unabhängig voneinander - vorausgesetzt dass jede Beziehung linear ist.

Der Korrelationskoeffizient gibt an, wie gut die Kenntnis von x (oder y) es uns ermöglicht, y (oder x) vorherzusagen. Angenommen, lineare Beziehungen.

In einer Ebene kann die Größe eines Vektors entlang der X-Achse variiert werden, ohne seine Komponente entlang der Y-Achse zu ändern - die X- und Y-Achse sind orthogonal und der Vektor entlang X ist orthogonal zu einer beliebigen Achse entlang Y. Variation der Größe eines Vektors Nicht entlang X werden sowohl die X- als auch die Y-Komponente variieren. Der Vektor ist nicht mehr orthogonal zu Y.

Wenn zwei Variablen nicht korreliert sind, sind sie orthogonal und wenn zwei Variablen orthogonal sind, sind sie nicht korreliert. Korrelation und Orthogonalität sind einfach unterschiedlich, obwohl sie äquivalent - algebraisch und geometrisch - sind, um den Begriff der linearen Unabhängigkeit auszudrücken. Als Analogie betrachten wir die Lösung eines Paares linearer Gleichungen in zwei Variablen durch Auftragen (geometrisch) und durch Determinanten (algebraisch).

In Bezug auf die Linearitätsannahme - sei x Zeit, sei y eine Sinusfunktion. Während einer Periode sind x und y beide orthogonal und unkorreliert, wobei die üblichen Mittel zur Berechnung beider verwendet werden. Die Kenntnis von x ermöglicht es uns jedoch, y genau vorherzusagen. Linearität ist ein entscheidender Aspekt der Korrelation und Orthogonalität.

Obwohl dies nicht Teil der Frage ist, stelle ich fest, dass Korrelation und Nichtorthogonalität nicht mit Kausalität gleichzusetzen sind. x und y können korreliert werden, da beide eine möglicherweise versteckte Abhängigkeit von einer dritten Variablen aufweisen. Der Konsum von Eis steigt im Sommer, die Leute gehen im Sommer häufiger an den Strand. Die beiden sind korreliert, aber keiner "verursacht" den anderen. Weitere Informationen zu diesem Punkt finden Sie unter https://en.wikipedia.org/wiki/Correlation_does_not_imply_causation .

James R. Matey
quelle
Unkorrelation und Orthogonalität sind verschiedene Dinge. Sie können dies hier überprüfen - terpconnect.umd.edu/~bmomen/BIOM621/LineardepCorrOrthogonal.pdf
Yurii
0

Hier ist die Beziehung: Wenn X und Y nicht korreliert sind, ist XE [X] orthogonal zu YE [Y].

Im Gegensatz dazu ist unabhängig ein stärkeres Konzept von unkorreliert, dh unabhängig führt zu unkorreliert, (nicht) orthogonal und (un) korreliert kann gleichzeitig passieren. Beispiel

Ich bin der TA der Wahrscheinlichkeit dieses Semesters, also mache ich ein kurzes Video über Unabhängigkeit, Korrelation, Orthogonalität.

https://youtu.be/s5lCl3aQ_A4

Ich hoffe es hilft.

Linan Huang
quelle
Dies beantwortet die Frage nicht.
Michael R. Chernick
Ich überarbeite die Antwort, hoffe das würde helfen ~ @ Michael Chernick
Linan Huang
@ Linanhuang Menschen aus Larx?
YHH