Ich lese gerade Larry Wassermans "All of Statistics" und wundere mich über etwas, das er in dem Kapitel über das Schätzen statistischer Funktionen nichtparametrischer Modelle geschrieben hat.
Er schrieb
"Manchmal können wir den geschätzten Standardfehler einer statistischen Funktion durch einige Berechnungen ermitteln. In anderen Fällen ist es jedoch nicht offensichtlich, wie der Standardfehler geschätzt werden kann."
Ich möchte darauf hinweisen, dass er im nächsten Kapitel über Bootstrap spricht, um dieses Problem zu beheben, aber da ich diese Aussage nicht wirklich verstehe, bekomme ich den Anreiz hinter Bootstrapping nicht vollständig?
Welches Beispiel gibt es, wenn nicht klar ist, wie der Standardfehler abgeschätzt werden soll?
Alle Beispiele , die ich bisher gesehen haben , war schon „offensichtlich“ wie , dann ^ s e ( p n ) = √
Antworten:
Zwei Antworten.
quelle
Ein Beispiel könnte zur Veranschaulichung beitragen. Angenommen, Sie möchten in einem kausalen Modellierungsrahmen bestimmen, ob die Beziehung zwischen (eine Exposition von Interesse) und Y (ein Ergebnis von Interesse) durch eine Variable W vermittelt wird . Dies bedeutet, dass in den beiden Regressionsmodellen:X Y W
Der Effekt unterscheidet sich von dem Effekt γ 1β1 γ1 .
Wir würden zwei Modelle 1 anpassen: die Anpassung an das Rauchen und das Ergebnis zusammen mit anderen Störfaktoren wie Alter, Geschlecht, Einkommen und Familiengeschichte von Herzkrankheiten, dann 2: alle vorherigen Kovariaten sowie den Body-Mass-Index. Der Unterschied im Raucheffekt zwischen Modell 1 und 2 beruht auf unserer Schlussfolgerung.
Wir sind daran interessiert, die Hypothesen testen
quelle
Having parametric solutions for each statistical measure would be desirable but, at the same time, quite unrealistic. Bootstrap comes in handy in those instances. The example that springs to my mind concerns the difference between two means of highly skewed cost distributions. In that case, the classic two-sample t-test fails to meet its theoretical requirements (the distributions from which the samples under investigation were drawn surely depart from normality, due to their long right-tail) and non-parametric tests lack to convey useful infromation to decision-makers (who are usually not interested in ranks). A possible solution to avoid being stalled on that issue is a two-sample bootstrap t-test.
quelle