Zwei Ereignisse sind unabhängig, wenn Ich versuche, diese Definition zu untersuchen und sie mit unserer intuitiven Vorstellung von Unabhängigkeit in der realen Welt in Einklang zu bringen. Ich bin der Meinung, dass die Gleichung zufällig ohne Grund für echte Unabhängigkeit erreicht werden kann.
Ich habe versucht, ein Gedankenexperiment zu konstruieren, um zu zeigen, dass probabilistische Unabhängigkeit nicht kausale Unabhängigkeit bedeuten muss. Betrachten Sie zum Beispiel die voneinander getrennten, erschöpfenden Ereignisse:
- : Es regnet nicht
- : Das Gras ist nicht grün
- : Es regnet und das Gras ist grün
Ich habe versucht, Wahrscheinlichkeiten zuzuweisen: so geschickt, dass (es regnet) und (das Gras ist grün) unabhängig. Wir hätten:
Gibt es ein intuitives, bissiges Beispiel für das, was ich demonstrieren wollte? Ich dachte an eine Variable , die einen kausalen Einfluss auf , aber auch auf eine dritte Variable , die genau den gegenteiligen Effekt auf . Dies würde bedeuten, dass und unabhängig sind, aber ich kann anscheinend nicht die richtigen Werkzeuge finden.
quelle
Antworten:
Man betrachte ein Exklusiv-ODER- Gatter (XOR), das eine elektronische Schaltung (Logikgatter) mit zwei Eingängen und und einem Ausgang wobei Werte in der diskreten Menge annehmen . Stellen Sie sich diese als boolesche Variablen vor (oder Bernouiii-Zufallsvariablen, wenn Sie möchten). ist durch die Exklusiv-ODER-Operation kausal mit und : wenn Sie ein Boolescher oder wenn Sie ein Bernoullist sind. Wie auch immer, nehmen wir an, dassX. Y. Z. X., Y., Z. { 0 , 1 } Z. X. Y. Z.= X.⊕ Y.= X.Y.¯∨X.¯Y. Z.= X.( 1 - Y.) + ( 1 - X.) Y.= X.+ Y.- 2 X.Y. X. und sind unabhängig (was bedeutet, dass für alle in . Dann
Bis jetzt alles in Ordnung? Nehmen wir nun an, dass Dann ist es leicht zu überprüfen, ob . Nun sind und sehr eindeutig kausal miteinander verbunden: Der Ausgang eines XOR-Gatters hängt von seinen Eingängen ab Ereignis tritt genau dann auf, wenn das EreignisY. P.( X.= a , Y.= b ) = P.( X.= a ) P.( Y.= b ) a , b { 0 , 1 } P.( Z.= 1 )= P.( X.≠ Y.)= P.( X.= 1 , Y.= 0 ) + P.( X.= 0 , Y.= 1 )= P.( X.= 1 ) P.( Y.= 0 ) + P.( X.= 0 ) P.( Y.= 1 ) . P.( X.= 1 ) = P.( Y.=1)=12 P(Z=1)=12 Z X
{Z=1,X=1} {X=1,Y=0} tritt auf und so ist
zeigt, dass die kausal verwandten Ereignisse und tatsächlich wahrscheinlich unabhängig sind. Ebenso und unabhängig, in der Tat, die drei Ereignisse , und sind paarweise unabhängig, aber nicht voneinander unabhängig, daP(Z=1,X=1)=P(X=1,Y=0)=14=P(Z=1)P(X=1)=12×12 {Z=1} {X=1} {Z=1} {Y=1} {X=1} {Y=1} {Z=1} P(X=1,Y=1,Z=1)=0≠P(X=1)P(Y=1)P(Z=1)=18.
Die kausale Abhängigkeit muss sich also nicht in der probabilistischen Abhängigkeit widerspiegeln . Es ist möglich, dass kausal abhängige Ereignisse wahrscheinlich unabhängig sind. Ich werde auch sagen, dass diese probabilistische Unabhängigkeit nur eine Eigenschaft des Wahrscheinlichkeitsmaßes ist: Wenn wir oder als eine andere Zahl in als die , die Ich habe oben schleichend gewählt, die probabilistische Unabhängigkeit verschwindet und die kausal abhängigen Ereignisse sind auch probabilistisch abhängig.P(X= 1 ) P.( Y.= 1 ) ( 0 , 1 ) 12
Aus Furcht , dass Sie denken , dass dies ein oddball Beispiel , das so gut wie nie im wirklichen Leben begegnen wird, sollten Sie den Goldstandard in der statistischen Theorie und Praxis: drei Standardnormalzufallsvariablen . Nehmen wir nun an , dass ihre gemeinsame Dichte ist nicht , wo ist die Standard - Normaldichte (wie dies der Fall wäre , wenn waren voneinander unabhängige standardnormalverteilten Zufallsvariablen), sondernX., Y., Z. fX., Y., Z.( x , y, z) ϕ ( x ) ϕ ( y) ϕ ( z) ϕ ( ⋅ ) X., Y., Z.
quelle
Bei der kausalen Modellierung ist dies in Fällen möglich, in denen es mehrere kausale Effekte gibt, die sich im probabilistischen Sinne genau gegenseitig aufheben. Daher ist es möglich , dass verursacht , aber es verursacht auch , und , und diese letzteren Ereignisse haben eine negative kausale Wirkung auf auf eine Weise, die den direkten kausalen Effekt von genau aufhebt .A B C D E B A
In Modellen probabilistischer Kausalität wird diese Art von pathologischer Situation normalerweise durch eine Treue- Annahme ausgeschlossen, die davon ausgeht, dass die probabilistischen Beziehungen der zugrunde liegenden kausalen Struktur "treu" sind und sich nicht aufheben. Eine grundlegende Einführung in die probabilistische Kausalität und die Annahme der Treue findet sich in der Stanford Encyclopaedia of Philosophy .
quelle
Beispiele können nach Belieben erstellt werden, da die Kausalität die Wahrheit betrifft, die Wahrscheinlichkeit jedoch die Logik.
Angenommen , es ist eine Tatsache , dass und und verursacht . Betrachten Sie nun die angegebenen Informationen . DannA∈A B∈B A=x B=y I≡“A∈A and B∈B” prob(A=a,B=b|I)=prob(A=a|I)prob(B=b|I)=1|A||B|
weil Unabhängigkeit die maximale Entropieverteilung ist, die mit übereinstimmt .I
Die Ereignisse sind dann logisch unabhängig, wenn , obwohl sie kausal abhängig sind.I
Es macht keinen Sinn, von Ereignissen zu sprechen, die ohne gegebene Annahmen logisch unabhängig sind: Logik erfordert Annahmen. Ursachen bestehen dagegen unabhängig von unseren Annahmen.
Vorstellungen von Kausalität sind natürlich selbst logisch und unterscheiden sich deutlich von den Ursachen selbst. Wenn wir also versuchen, kausale Vorstellungen über Ereignisse mit logischen Vorstellungen über diese Ereignisse zu vergleichen, sind sie tatsächlich ein und dasselbe. Wenn wir zum Beispiel , dannI≡“A∈A and B∈B and A=x causes B=y” prob(A=a,B=b|I)=prob(B=b|A=a,I)prob(A=a|I)=1|A|{δby1|B|A=xA≠x
woraufhin die Logik die kausale Idee ausdrückt.
quelle