Ich versuche gerade, ein paar Dinge in Bezug auf parametrisches Bootstrap in den Kopf zu bekommen. Die meisten Dinge sind wahrscheinlich trivial, aber ich glaube immer noch, dass ich etwas verpasst habe.
Angenommen, ich möchte Konfidenzintervalle für Daten mithilfe einer parametrischen Bootstrap-Prozedur abrufen.
Ich habe also dieses Beispiel und gehe davon aus, dass es normal verteilt ist. Ich würde dann Varianzschätzung v und mittlere und meine Verteilungsschätzung erhalten , die offensichtlich nur . P N( m , v )
Anstatt aus dieser Verteilung eine Stichprobe zu ziehen, könnte ich die Quantile einfach analytisch berechnen und durchführen.
a) Ich schließe daraus: In diesem trivialen Fall wäre das parametrische Bootstrap dasselbe wie das Berechnen von Dingen in einer Normalverteilungsannahme?
Theoretisch wäre dies für alle parametrischen Bootstrap-Modelle der Fall, solange ich mit den Berechnungen fertig bin.
b) Ich komme zu dem Schluss, dass die Annahme einer bestimmten Verteilung mir mehr Genauigkeit beim parametrischen Bootstrap bringt als beim nichtparametrischen (wenn es natürlich korrekt ist). Aber abgesehen davon mache ich es einfach, weil ich die analytischen Berechnungen nicht verarbeiten kann und versuche, meinen Ausweg zu simulieren?
c) Ich würde es auch verwenden, wenn die Berechnungen "normalerweise" mit einer Annäherung durchgeführt würden, weil dies mir vielleicht mehr Genauigkeit geben würde ...?
Der Vorteil des (nichtparametrischen) Bootstraps schien für mich darin zu liegen, dass ich keine Distribution übernehmen muss. Für den parametrischen Bootstrap ist dieser Vorteil weg - oder gibt es Dinge, die ich verpasst habe und bei denen der parametrische Bootstrap einen Vorteil gegenüber den oben genannten Dingen bietet?
quelle
Antworten:
Ja. Du hast recht. Parametric Bootstrap schirmt jedoch bessere Ergebnisse ab, wenn die Annahmen gelten. Denk darüber so:
Wir haben eine Stichprobe aus einer Verteilung F . Wir schätzen , um einen Parameter von Interesse θ in Abhängigkeit von der Probe, θ = h ( X 1 , ... , X n ) . Diese Schätzung ist eine Zufallsvariable und hat daher eine Verteilung, die wir G nennen . Diese Verteilung wird vollständig durch h und F bestimmt, was G = G ( h , F ) bedeutet.X1,…,Xn F θ θ^=h(X1,…,Xn) G h F G=G(h,F) . Wenn jede Art von Bootstrap tun (parametrisch, nicht-parametrische, Resampling) , was wir tun , ist zu schätzen mit F , um eine Schätzung zu erhalten G , G = G ( h , F ) . Von G schätzen wir die Eigenschaften von θ . Was Fom differents Arten von Bootstrap ändert , ist , wie wir bekommen F .F F^ G G^=G(h,F^) G^ θ^ F^
quelle