Intuitive Erklärung für die inverse Wahrscheinlichkeit von Behandlungsgewichten (IPTWs) bei der Neigungsbewertung?

10

Ich verstehe die Mechanik der Gewichte der Berechnung der Neigung unter Verwendung von Partituren : und dann Anwenden der Gewichte in einer Regressionsanalyse, zu der die Gewichte dienen "Kontrolle für" oder Trennung der Wirkungen von Kovariaten in den Populationen der Behandlungs- und Kontrollgruppe mit der Ergebnisvariablen.p(xi)

wi,j=treat=1p(xi)wi,j=control=11p(xi)

Auf der Darmebene verstehe ich jedoch nicht, wie die Gewichte dies erreichen und warum die Gleichungen so konstruiert sind, wie sie sind.

RobertF
quelle

Antworten:

8

Der berechnete Neigungswert ist die Wahrscheinlichkeit, dass das Subjekt eine Behandlung erhält, wenn die Informationen in . Die IPTW Verfahren versucht zu machen , kontrafaktische Folgerung prominenteren die Neigungs - Scores verwendet. Mit einer hohen Wahrscheinlichkeit, eine Behandlung zu erhalten und dann tatsächlich behandelt zu werden, wird erwartet, dass dort keine kontrafaktischen Informationen vorliegen. Eine geringe Wahrscheinlichkeit, eine Behandlung zu erhalten und tatsächlich eine Behandlung zu erhalten, ist ungewöhnlich und daher aussagekräftiger darüber, wie sich die Behandlung auf Personen mit geringer Wahrscheinlichkeit auswirken würde, eine Behandlung zu erhalten. dh. Merkmale, die hauptsächlich mit Kontrollpersonen verbunden sind. Daher ist die Gewichtung für das behandelte Subjektp(xi)iXwi,j=treat=1p(xi) erhöht das Gewicht unwahrscheinlicher / sehr informativer Behandlungsthemen. Nach der gleichen Idee ist ein Kontrollsubjekt, das eine große Wahrscheinlichkeit hat, eine Behandlung zu erhalten, ein informativer Indikator dafür, wie sich Subjekte in der Behandlung verhalten würden, wenn sie in der Kontrollgruppe wären. In diesem Fall lautet die Gewichtung für Kontrollpersonen wodurch der unwahrscheinlichen / sehr informativen Kontrolle mehr Gewicht hinzugefügt wird Themen. In der Tat können die Gleichungen in erster Instanz etwas willkürlich erscheinen, aber ich denke, dass sie leicht unter einer kontrafaktischen Begründung erklärt werden können. Letztendlich versuchen alle Matching- / PSM- / Gewichtungsroutinen, einen quasi-experimentellen Rahmen in unseren Beobachtungsdaten zu skizzieren. ein neues Idealwi,j=control=11p(xi) Experiment.

Falls Sie nicht auf sie gestoßen sind, empfehle ich Ihnen dringend, Stuart (2010) zu lesen: Matching Methods for Causal Inference: Ein Rückblick und ein Blick nach vorne und Thoemmes und Kim (2011): Ein systematischer Rückblick auf Propensity Score-Methoden in den Sozialwissenschaften ; beide sind schön geschrieben und dienen als gute Einstiegspapiere zu diesem Thema. Lesen Sie auch diesen hervorragenden Vortrag von 2015 darüber, warum Propensity Scores nicht für das Matching von King verwendet werden sollten. Sie haben mir wirklich geholfen, meine Intuition zu diesem Thema aufzubauen.

usεr11852
quelle
Danke, tolle Antwort! Natürlich ist die Begründung hinter den Gewichtsformeln im Nachhinein offensichtlich. Ich habe mir den King-Artikel 2015 angesehen. Sehr informativ, obwohl ich, wenn ich eine hervorragende Balance mit dem Neigungswert ohne Trimmen erreiche, warum nicht den Neigungswert verwenden kann?
RobertF
1
Ich bin froh, dass Sie es hilfreich finden. In Bezug auf King (2015): Wenn wir durch PSM ein hervorragendes Gleichgewicht erreichen, sollten wir PSM verwenden. Das Problem ist, dass PSM normalerweise kein ausgezeichnetes Gleichgewicht erreicht, wie wir es bei einem vollständig blockierten randomisierten experimentellen Design hätten, weil es nicht dafür ausgelegt war.
usεr11852
Geniale Antwort, @ usεr11852
Nicg
Vielen Dank. Es ist nett, dass Sie das sagen.
usεr11852