Sei sind unterschiedliche Beobachtungen (keine Bindungen). Sei X ∗ 1 , . . . , X ∗ n bezeichnen eine Bootstrap-Probe (eine Probe aus der empirischen CDF) und lassen ˉ X ∗ n = 1X.1, . . . , X.nX.∗1, . . . , X.∗n . Finden SieE( ˉ X ∗ n )undVar( ˉ X ∗ n ).X.¯∗n= 1n∑ni = 1X.∗ichE.( X.¯∗n)V.a r ( X.¯∗n)
Was ich bis jetzt habe , ist , dass ist X 1 , . . . , X n jeweils mit Wahrscheinlichkeit 1X.∗ichX.1, . . . , X.n also
E(X ∗ i )=11nund
E(X ∗ 2 i )=1
E.( X.∗ich) = 1nE.( X.1) + . . . + 1nE.( X.n) = n μn= μ
was
V a r ( X ∗ i ) = E ( X ∗ 2 i ) - ( E ( X ∗ i ) ) 2 = μ 2 + σ 2 - μ 2 = σ 2 ergibt
E.( X.∗ 2ich) = 1nE.( X.21) + . . . + 1nE.( X.2n) = n ( μ2+ σ2)n= μ2+ σ2,
V a r ( X.∗ich) = E.( X.∗ 2ich) - ( E.( X.∗ich) )2= μ2+ σ2- μ2= σ2.
Dann ist
E.( X.¯∗n) = E.( 1n∑i = 1nX.∗ich) = 1n∑i = 1nE.( X.∗ich) = n μn= μ
V a r ( X.¯∗n) = V a r ( 1n∑i = 1nX.∗ich) = 1n2∑i = 1nV a r ( X.∗ich)
X.∗ichV a r ( X.¯∗n) = n σ2n2= σ2n
X.1, … , X.n
V a r ( X.¯∗n) = E.( V a r ( X.¯∗n| X.1, . . . , X.n) ) + V a r ( E.( X.¯∗n| X.1, … , X.n) ).
E.( X.¯∗n| X.1, … , X.n) = X.¯nV a r ( X.¯∗n| X.1, … , X.n) = 1n2( ∑ X.2ich- n X.¯2n)V a r ( X.¯∗n) = ( 2 n - 1 ) σ2n2
Mache ich hier etwas falsch Ich habe das Gefühl, dass ich die bedingte Varianzformel nicht richtig verwende, bin mir aber nicht sicher. Jede Hilfe wäre dankbar.
Antworten:
quelle
Dies mag eine späte Antwort sein, aber was bei Ihrer Berechnung falsch ist, ist Folgendes: Sie haben angenommen, dass Ihr Bootstrap-Beispiel unbedingt iid ist. Dies ist falsch: Abhängig von Ihrer Stichprobe ist die Bootstrap-Stichprobe zwar iid, aber bedingungslos verlieren Sie die Unabhängigkeit (aber Sie haben immer noch identisch verteilte Zufallsvariablen). Dies ist im Wesentlichen Übung 13 in Larry Wasserman Alle nichtparametrischen Statistiken .
quelle