Ich gebe zu, dass ich in Bezug auf Neigungsbewertungen und Kausalanalysen relativ neu bin.
Eine Sache, die mir als Neuling nicht klar ist, ist, wie sich das "Ausbalancieren" unter Verwendung von Neigungsbewertungen mathematisch von dem unterscheidet, was passiert, wenn wir Kovariaten in einer Regression hinzufügen? Was ist anders an der Operation und warum ist sie besser (oder besser) als das Hinzufügen von Subpopulations-Kovariaten in einer Regression?
Ich habe einige Studien gesehen, die einen empirischen Vergleich der Methoden durchführen, aber ich habe keine gute Diskussion gesehen, die die mathematischen Eigenschaften der beiden Methoden in Beziehung setzt und warum sich PSM für kausale Interpretationen eignet, Regressionskovariaten jedoch nicht. Es scheint auch viel Verwirrung und Kontroverse auf diesem Gebiet zu geben, was es noch schwieriger macht, die Dinge aufzugreifen.
Irgendwelche Gedanken dazu oder irgendwelche Hinweise auf gute Ressourcen / Papiere, um den Unterschied besser zu verstehen? (Ich gehe langsam das Kausalitätsbuch von Judea Pearl durch, also muss ich nicht darauf hinweisen.)
quelle
Antworten:
Ein großer Unterschied besteht darin, dass die Regression diese Merkmale linear "steuert". Die Übereinstimmung nach Neigungswerten beseitigt die Linearitätsannahme, aber da einige Beobachtungen möglicherweise nicht übereinstimmen, können Sie möglicherweise nichts über bestimmte Gruppen aussagen.
Wenn Sie beispielsweise ein Arbeiterausbildungsprogramm absolvieren, sind möglicherweise alle Teilnehmer Männer, aber die nicht teilnehmende Kontrollbevölkerung setzt sich aus Männern und Frauen zusammen. Mit Hilfe der Regression können Sie beispielsweise das Einkommen einer Beteiligungsindikatorvariablen und eines männlichen Indikators zurückführen. Sie würden alle Ihre Daten verwenden und könnten das Einkommen einer Frau schätzen, wenn sie an dem Programm teilgenommen hätte.
Wenn Sie Matching machten, konnten Sie nur Männer mit Männern vergleichen. Infolgedessen würden Sie in Ihrer Analyse keine Frauen verwenden und Ihre Ergebnisse würden sich nicht auf sie beziehen.
Regression kann unter Verwendung der Linearitätsannahme extrapoliert werden, Matching jedoch nicht. Alle anderen Annahmen stimmen im Wesentlichen zwischen Regression und Matching überein. Der Vorteil des Matchings gegenüber der Regression besteht darin, dass es nicht parametrisch ist (außer Sie müssen davon ausgehen, dass Sie den richtigen Neigungswert haben, wenn Sie das Matching auf diese Weise durchführen).
Weitere Informationen finden Sie auf meiner Seite hier zu einem Kurs, der sich stark auf Matching-Methoden konzentriert. Siehe insbesondere Annahmen zur Abschätzung der Kausaleffekte .
Auch sicher sein , die zu überprüfen , Rosenbaum und Rubin (1983) Artikel , dass Umrisse Propensity Score Matching.
Schließlich hat das Matching seit 1983 einen langen Weg zurückgelegt. Auf Jas Sekhons Webseite erfahren Sie mehr über seinen genetischen Matching-Algorithmus.
quelle
Die kurze Antwort lautet, dass die Neigungsbewertungen nicht besser sind als das entsprechende ANCOVA-Modell, insbesondere in Bezug auf die kausale Interpretation.
Propensity Scores werden am besten als Datenreduktionsmethode verstanden. Sie sind ein wirksames Mittel, um viele Kovariaten in eine einzige Bewertung zu reduzieren, mit der ein interessierender Effekt für eine Reihe von Variablen angepasst werden kann. Auf diese Weise sparen Sie Freiheitsgrade, indem Sie anstelle mehrerer Kovariaten nur einen Neigungswert einstellen. Dies ist sicherlich ein statistischer Vorteil, aber nicht mehr.
Von:
PROPENSITY SCORE-METHODEN ZUR BIAS-REDUZIERUNG IM VERGLEICH EINER BEHANDLUNG ZU EINER NICHT-RANDOMISIERTEN KONTROLLGRUPPE
D'Agostino (zitiert Rosenbaum und Rubin)
D'agostino, RB 1998. Propensity Score Matching zur Bias-Reduktion im Vergleich einer Behandlung mit einer nicht randomisierten Kontrollgruppe. Statistical Medicine 17: 2265–2281.
quelle
Eine wahrscheinliche stumpfe Referenz, aber wenn Sie zufällig Zugang dazu haben, würde ich empfehlen, dieses Buchkapitel zu lesen ( Apel und Sweeten, 2010 ). Es richtet sich an Sozialwissenschaftler und ist daher vielleicht nicht so streng mathematisch, wie Sie es zu wollen scheinen, aber es sollte so ausführlich sein, dass es mehr als eine zufriedenstellende Antwort auf Ihre Frage darstellt.
Es gibt verschiedene Möglichkeiten, wie Menschen Neigungsbewertungen behandeln, die zu unterschiedlichen Schlussfolgerungen führen können, wenn sie einfach Kovariaten in ein Regressionsmodell einbeziehen. Wenn man Treffer vergleicht, muss man nicht unbedingt für alle Beobachtungen eine gemeinsame Unterstützung haben (dh es gibt Beobachtungen, die scheinbar nie die Chance haben, in der Behandlungsgruppe zu stehen, und solche, die immer in der Behandlungsgruppe liegen). Außerdem kann man Beobachtungen auf verschiedene Arten gewichten, was zu unterschiedlichen Schlussfolgerungen führen kann.
Zusätzlich zu den Antworten hier empfehle ich Ihnen auch, die Antworten auf die hier genannte Frage zu lesen. Die Bewertung der Neigung steckt mehr dahinter als nur ein statistischer Trick zur Erzielung eines kovariaten Gleichgewichts. Wenn Sie die häufig zitierten Artikel von Rosenbaum und Rubin lesen und verstehen, wird klarer, warum sich der Ansatz von der Addition von Kovariaten in einem Regressionsmodell unterscheidet. Ich denke, eine zufriedenstellendere Antwort auf Ihre Frage liegt nicht unbedingt in der Mathematik hinter den Neigungsbewertungen, sondern in ihrer Logik.
quelle
Ich stelle mir PS gerne als einen Teil des Designs der Studie vor, der sich vollständig von der Analyse getrennt hat. Das heißt, Sie möchten vielleicht in Bezug auf Design (PS) und Analyse (Regression usw.) denken. PS bietet auch ein Mittel zur Unterstützung der Austauschbarkeit für die binäre Behandlung; Vielleicht können andere dazu Stellung nehmen, ob die Einbeziehung der Kovariaten in das Ergebnismodell die Austauschbarkeit tatsächlich unterstützen kann oder ob man die Austauschbarkeit voraussetzt, bevor die Kovariaten in das Ergebnismodell einbezogen werden.
quelle
Stat Methoden Med Res. 2016 Apr 19.
Eine Bewertung der Verzerrung in Neigungsscore-bereinigten nichtlinearen Regressionsmodellen.
Propensity-Score-Methoden werden häufig verwendet, um beobachtete Verwirrungen bei der Schätzung des konditionalen Behandlungseffekts in Beobachtungsstudien auszugleichen. Es wurde empirisch gezeigt, dass eine beliebte Methode, die kovariate Anpassung des Neigungswerts in einem Regressionsmodell, in nichtlinearen Modellen voreingenommen ist. Es wurde jedoch kein zwingender theoretischer Grund angegeben. Wir schlagen einen neuen Rahmen vor, um die Verzerrung und Konsistenz von an den Neigungsscore angepassten Behandlungseffekten in nichtlinearen Modellen zu untersuchen. Dabei wird ein einfacher geometrischer Ansatz verwendet, um eine Verbindung zwischen der Konsistenz des Neigungsscore-Schätzers und der Kollabierbarkeit nichtlinearer Modelle herzustellen. In diesem Rahmen zeigen wir, dass die Anpassung des Neigungsscores in einem Ergebnismodell zur Zerlegung der beobachteten Kovariaten in den Neigungsscore und einen Restterm führt. Das Weglassen dieser Restlaufzeit aus einem nicht kollabierbaren Regressionsmodell führt zu verzerrten Schätzungen des bedingten Odds Ratio und des bedingten Hazard Ratio, nicht jedoch des bedingten Rate Ratio. Wir zeigen ferner durch Simulationsstudien, dass die Verzerrung in diesen Schätzern mit angepasster Neigungsbewertung mit zunehmender Größe des Behandlungseffekts, größeren Kovariateneffekten und zunehmender Unähnlichkeit zwischen den Koeffizienten der Kovariaten im Behandlungsmodell und dem Ergebnismodell zunimmt.
quelle