In Judea Pearls "Book of Why" spricht er über das, was er als "Ladder of Causation" bezeichnet. Dies ist im Wesentlichen eine Hierarchie, die sich aus verschiedenen Ebenen kausalen Denkens zusammensetzt. Die niedrigste befasst sich mit Assoziationsmustern in beobachteten Daten (z. B. Korrelation, bedingte Wahrscheinlichkeit usw.), die nächste befasst sich mit Eingriffen (was passiert, wenn wir den Datenerzeugungsprozess auf eine bestimmte Weise absichtlich ändern?) Und die dritte mit kontrafaktisch (was würde in einer anderen möglichen Welt passieren, wenn etwas passiert wäre oder nicht)?
Was ich nicht verstehe, ist, wie Sprossen zwei und drei sich unterscheiden. Wenn wir eine kontrafaktische Frage stellen, stellen wir dann nicht einfach eine Frage zum Eingreifen, um einen Aspekt der beobachteten Welt zu negieren ?
Antworten:
Es gibt keinen Widerspruch zwischen der tatsächlichen Welt und der Aktion des Interesses auf der interventionellen Ebene. Zum Beispiel sind Rauchen bis heute und das Aufhören mit dem Rauchen ab morgen kein Widerspruch, auch wenn man sagen könnte, das eine „negiert“ das andere. Stellen Sie sich nun das folgende Szenario vor. Sie kennen Joe, einen lebenslangen Raucher mit Lungenkrebs, und Sie fragen sich: Was wäre, wenn Joe dreißig Jahre lang nicht geraucht hätte, er wäre heute gesund? In diesem Fall haben wir es mit der gleichen Person zur gleichen Zeit zu tun und stellen uns ein Szenario vor, in dem Handlung und Ergebnis im direkten Widerspruch zu bekannten Tatsachen stehen.
Der Hauptunterschied zwischen Interventionen und Kontrafakten besteht also darin, dass Sie bei Interventionen fragen, was durchschnittlich passieren wird, wenn Sie eine Aktion ausführen, während Sie bei Kontrafakten fragen, was passiert wäre, wenn Sie in einer bestimmten Situation eine andere Vorgehensweise gewählt hätten , da Sie Informationen über das , was wirklich passiert ist . Beachten Sie, dass Sie, da Sie bereits wissen, was in der tatsächlichen Welt passiert ist, Ihre Informationen über die Vergangenheit im Lichte der von Ihnen beobachteten Beweise aktualisieren müssen.
Diese beiden Arten von Abfragen unterscheiden sich mathematisch, da für sie unterschiedliche Informationsebenen beantwortet werden müssen (für Kontrafakten müssen mehr Informationen beantwortet werden) und eine noch ausgefeiltere Sprache artikuliert werden muss !.
Mit den Informationen, die zur Beantwortung von Rung 3-Fragen benötigt werden, können Sie Rung 2-Fragen beantworten, aber nicht umgekehrt. Genauer gesagt, Sie können kontrafaktische Fragen nicht nur mit interventionellen Informationen beantworten. Beispiele für das Zusammentreffen von Interventionen und Kontrafakten finden Sie hier im Lebenslauf. Siehe diesen Beitrag und diesen Beitrag . Der Vollständigkeit halber möchte ich hier jedoch auch ein Beispiel anführen.
Das folgende Beispiel befindet sich in Causality, Abschnitt 1.4.4.
Diese Frage kann nicht nur mit den eingreifenden Daten beantwortet werden, die Sie haben. Der Beweis ist einfach: Ich kann zwei verschiedene Kausalmodelle erstellen, die die gleichen interventionellen Verteilungen und dennoch unterschiedliche kontrafaktische Verteilungen haben. Die zwei sind unten angegeben:
Beachten Sie, dass im ersten Modell niemand von der Behandlung betroffen ist. Daher ist der Prozentsatz der Patienten, die unter der Behandlung starben und sich erholt hätten, wenn sie die Behandlung nicht genommen hätten, Null.
Im zweiten Modell ist jedoch jeder Patient von der Behandlung betroffen, und es liegt eine Mischung aus zwei Populationen vor, in denen der durchschnittliche kausale Effekt Null ist. In diesem Beispiel beträgt die kontrafaktische Menge jetzt 100%. In Modell 2 hätten sich alle Patienten, die unter Behandlung gestorben sind, erholt, wenn sie die Behandlung nicht genommen hätten.
Daher gibt es eine klare Unterscheidung zwischen Strompfad 2 und Strompfad 3. Wie das Beispiel zeigt, können Sie kontrafaktische Fragen nicht nur mit Informationen und Annahmen zu Interventionen beantworten. Dies wird durch die drei Schritte zur Berechnung eines Kontrafaktors verdeutlicht:
Dies kann nicht ohne funktionale Informationen zum Kausalmodell oder ohne Informationen zu latenten Variablen berechnet werden.
quelle
Hier ist die Antwort, die Judea Pearl auf Twitter gab :
quelle