Die allgemeine Version:
Ich muss schätzen, wobei und stetig und multivariat sind. Ich mache es lieber nichtparametrisch, weil ich keine gute funktionale Form im Sinn habe und so etwas wie unvoreingenommen sein muss. Ich wollte einen bedingten Kernel-Dichteschätzer verwenden, aber mir wurde klar, dass ich zuerst quantisieren musste . Dann hatte ich die Idee, und aus den Daten zu schätzen und daraus zu berechnen , oder vielleicht lese ich es irgendwo und weiß nicht mehr wo.f ( A | X ) X f ( A , X ) F ( X ) f ( A | X )
Gibt es einen Grund, warum dieses Verfahren nicht gültig ist? Gibt es einen besseren oder ehrlicheren Ansatz als die Kerneldichte? Gibt es auch ein Problem bei der nichtparametrischen Schätzung der Populationsdichte aus den Probendichten? Die Daten sind Umfragedaten, und ich habe Umfragegewichte. soll ich sie irgendwie einbauen?
Die fallspezifische Version:
Es ist wahrscheinlich erwähnenswert, dass ich diese Schätzungen für inverse Wahrscheinlichkeit der Behandlungswahrscheinlichkeit in einem marginalen Strukturmodell verwenden werde, wie in Robins (2000) ( ungated PDF ). Ich beobachte eine Folge von "Behandlungen" und eine Folge von zeitlich variierenden Störfaktoren in Bezug auf einige Ergebnis , das bei t = T + 1 auftritt . Ich habe einen einfachen parametrischen Kausalzusammenhang angenommen, E [\ tilde {Y} | \ vec {a}] = \ beta '\ vec {a} , aber da es einen zeitlich variierenden Confounder \ beta gibt { x t } 4 t = 0 ˜ y t = T + 1 E [ ˜ Y | → a ] = β ′ → a βist eine voreingenommene Schätzung des "durchschnittlichen Behandlungseffekts", und der Confounder kann nicht als Regressor hinzugefügt werden, da er sich auf dem kausalen Pfad befindet und dies auch \ beta verzerrt . Glücklicherweise hat Doc Robins herausgefunden, dass ich unvoreingenommene / unbegründete und einigermaßen effiziente Schätzungen erhalten kann, wenn ich meine Beobachtungen neu gewichte durch:
Meine Frage: Für diese Folge von Gewichten brauche ich wirklich eine Schätzung. Robins empfiehlt eine logistische Regression. Aber liegt in , wird an gemessen und liegt für alle praktischen Zwecke in einer endlichen Teilmenge davon. liegt in einem geschlossenen Intervall, aber nur, weil es wirklich der Mittelwert einiger Variablen ist, die jeweils an einer endlichen Teilmenge von gemessen werden . [ 0 , ∞ ) 7 { 0 , … } 7 x t { 0 , … , 12 }
Also hatte ich ein paar Ideen:
- Schätzen Sie und nichtparametrischf ( x , a s < t )
- Schätzen Sie mit Beta-Regression und nichtparametrischf ( x s < t , a s < t )
- Schätzen Sie mit Beta-Regression und schätzen Sie ) durch "Verketten" von Beta-Regressionen durch die Zeit, um das Ganze als Bedingung auszudrücken.f ( a t , a s < t , x s < ( t - 1 ) )
- Etwas tatsächlich Kohärentes und Ehrliches bei der Verbreitung von Unsicherheit, an das ich offensichtlich nicht gedacht habe.
- Bayes? Ich kenne Stan und JAGS, aber MCMC wird wahrscheinlich meinen Computer explodieren lassen (ich möchte mich nicht mit EC2 befassen).
Ich habe in der Literatur keine Hinweise gefunden, da multivariate Behandlungen in der kausalen Modellierung selten sind. Was sollte ich tun?
Bonuspunkte: Wie stehen Sie zu der Notation , die anstelle von so etwas wie ? { a s } t s = 0 → a t - 1
quelle