Welche theoretischen Herangehensweisen an die Kausalität sollte ich als angewandter Statistiker / Ökonometriker kennen?
Ich kenne die (ein bisschen)
- Neyman-Rubin-Kausalmodell (und Roy , Haavelmo usw.)
- Pearl's Arbeit über Kausalität
- Granger-Kausalität (wenn auch weniger behandlungsorientiert)
Welche Konzepte vermisse ich oder sollte ich darauf achten?
Verwandte: Welche Theorien sind Grundlagen für Kausalität im maschinellen Lernen?
Ich habe diese interessanten Fragen und die Antworten ( 1 , 2 , 3 ) gelesen , denke aber, dass dies eine andere Frage ist. Und ich war sehr überrascht zu sehen, dass "Kausalität" beispielsweise in Elements of Statistical Learning nicht erwähnt wird .
machine-learning
causality
theory
treatment-effect
Arne Jonas Warnke
quelle
quelle
Antworten:
Während es fast unumstritten ist, dass eine Ursache ihrer Wirkung zeitlich vorausgehen muss, müssen Sie, um kausale Schlussfolgerungen zeitlich vorrangig ziehen zu können, neben anderen Quellen von falschen Assoziationen auch das Fehlen von Verwechslungen geltend machen.
In Bezug auf die potenziellen Ergebnisse (Neyman-Rubin) im Vergleich zu Kausaldiagrammen / Strukturgleichungsmodellierung (Pearl) würde ich sagen, dass dies ein falsches Dilemma ist und Sie beides lernen sollten.
Zunächst ist zu beachten, dass dies keine gegensätzlichen Ansichten über die Kausalität sind . Wie Pearl es ausdrückt, gibt es eine Hierarchie in Bezug auf (kausale) Inferenzaufgaben:
Für die erste Aufgabe müssen Sie nur die gemeinsame Verteilung der beobachteten Variablen kennen. Für die zweite Aufgabe müssen Sie die gemeinsame Verteilung und die Kausalstruktur kennen. Für die letzte Aufgabe der Kontrafakten benötigen Sie außerdem einige Informationen zu den Funktionsformen Ihres Strukturgleichungsmodells.
Wenn es also um Kontrafakten geht, gibt es eine formale Äquivalenz zwischen beiden Perspektiven . Der Unterschied besteht darin, dass potenzielle Ergebnisse kontrafaktische Aussagen als Primitive annehmen und in DAGs Kontrafaktiken aus den Strukturgleichungen abgeleitet zu sein scheinen . Sie könnten sich jedoch fragen, ob sie "gleichwertig" sind, warum Sie sich die Mühe machen, beide zu lernen? Weil es Unterschiede in Bezug auf die "Leichtigkeit" gibt, Dinge auszudrücken und abzuleiten.
Versuchen Sie beispielsweise, das Konzept von M-Bias nur mit potenziellen Ergebnissen auszudrücken. Ich habe noch nie ein gutes Ergebnis gesehen. Bisher habe ich die Erfahrung gemacht, dass Forscher, die sich noch nie mit Grafiken befasst haben, sich dessen nicht einmal bewusst sind. Wenn Sie die inhaltlichen Annahmen Ihres Modells in die grafische Sprache umwandeln, können Sie die empirisch überprüfbaren Implikationen des Modells rechnerisch leichter ableiten und Fragen der Identifizierbarkeit beantworten. Andererseits fällt es den Menschen manchmal leichter, zunächst direkt an die Kontrafakten selbst zu denken und diese mit parametrischen Annahmen zu kombinieren, um sehr spezifische Fragen zu beantworten.
Man könnte noch viel mehr sagen, aber der Punkt hier ist, dass Sie lernen sollten, wie man "beide Sprachen spricht". Referenzen finden Sie hier.
quelle