Angenommen, ich habe einen Satz von Beispieldaten aus einer unbekannten oder komplexen Verteilung und möchte einen Rückschluss auf eine Statistik der Daten ziehen. Meine Standardeinstellung besteht darin, nur eine Reihe von Bootstrap-Beispielen mit Ersetzung zu generieren und meine Statistik für jedes Bootstrap-Beispiel zu berechnen , um eine geschätzte Verteilung für zu erstellen .
Was sind Beispiele, bei denen dies eine schlechte Idee ist?
Ein Fall, in dem es nicht gelingt, diesen Bootstrap auf einfache Weise durchzuführen, ist beispielsweise, wenn ich versuche, den Bootstrap für Zeitreihendaten zu verwenden (um beispielsweise zu testen, ob ich eine signifikante Autokorrelation habe). Der oben beschriebene naive Bootstrap (Erzeugen des ten Datenpunkts der n-ten Bootstrap-Beispielserie durch Abtasten mit Ersetzen aus meiner Originalserie) wäre (glaube ich) nicht ratsam, da er die Struktur in meiner ursprünglichen Zeitreihe ignoriert, und wir Holen Sie sich ausgefeiltere Bootstrap-Techniken wie den Block-Bootstrap.
Anders ausgedrückt, was hat der Bootstrap außer "Sampling with Replacement"?
Antworten:
Wenn die Menge des Interesses, normalerweise eine Funktion einer Distribution, einigermaßen reibungslos ist und Ihre Daten angezeigt werden, befinden Sie sich normalerweise in einem ziemlich sicheren Gebiet. Natürlich gibt es auch andere Umstände, unter denen der Bootstrap funktioniert.
Was es bedeutet, dass der Bootstrap "fehlschlägt"
Allgemein gesagt besteht der Zweck des Bootstraps darin, eine ungefähre Stichprobenverteilung für die interessierende Statistik zu erstellen. Es geht nicht um eine tatsächliche Schätzung des Parameters. Also, wenn die Statistik von Interesse (unter einer gewissen Neuskalierung und Zentrierung) und in Distribution ist, wir, dass unsere Bootstrap-Distribution auf zur Verteilung von konvergieren . Wenn wir dies nicht haben, können wir den gemachten Schlussfolgerungen nicht vertrauen.X^n X^n→X∞ X∞
Das kanonische Beispiel dafür, wann der Bootstrap selbst in einem iid-Framework fehlschlagen kann, ist der Versuch, die Stichprobenverteilung einer Statistik extremer Ordnung zu approximieren. Nachfolgend finden Sie eine kurze Diskussion.
Maximale Ordnungsstatistik einer Zufallsstichprobe aus einer -VerteilungU[0,θ]
Sei eine Folge von gleichförmigen Zufallsvariablen auf . Lassen Sie . Die Verteilung von ist (Beachten Sie, dass dies durch ein sehr einfaches Argument tatsächlich auch zeigt, dass wahrscheinlich ist, und sogar fast sicher , wenn die Zufallsvariablen alle auf demselben Raum definiert sind.)X1,X2,… [0,θ] X(n)=max1≤k≤nXk X(n)
Eine Elementarberechnung ergibt oder, mit anderen Worten, konvergiert in der Verteilung zu einer exponentiellen Zufallsvariablen mit dem Mittelwert .
Nun bilden wir eine (naive) Bootstrap- Schätzung der Verteilung von indem , um und die Verteilung verwenden von abhängig von .n(θ−X(n)) X1,…,Xn X⋆1,…,X⋆n n(X(n)−X⋆(n)) X1,…,Xn
, dass mit einer Wahrscheinlichkeit von ist und die Bootstrap-Verteilung trotz allem auch asymptotisch eine Punktmasse von Null aufweist die Tatsache, dass die tatsächliche Grenzverteilung kontinuierlich ist.X⋆(n)=X(n) 1−(1−1/n)n→1−e−1
Genauer gesagt, obwohl die wahre Grenzverteilung mit dem Mittelwert ; exponentiell ist , platziert die begrenzende Bootstrap-Verteilung eine Punktmasse auf Null der Größe unabhängig vom tatsächlichen Wert von . Indem wir ausreichend groß nehmen, können wir die Wahrscheinlichkeit der wahren Grenzverteilung für jedes feste Intervall beliebig klein machen , aber der Bootstrap wird ( noch !) Melden, dass in diesem Intervall mindestens eine Wahrscheinlichkeit von 0,632 vorliegt! Daraus sollte klar sein, dass sich der Bootstrap in dieser Einstellung beliebig schlecht verhalten kann .θ 1−e−1≈0.632 θ θ [0,ε)
Zusammenfassend lässt sich sagen, dass der Bootstrap in diesem Fall (kläglich) fehlschlägt. Beim Umgang mit Parametern am Rand des Parameterraums kann es zu Fehlern kommen.
Ein Beispiel aus einer Stichprobe von normalen Zufallsvariablen
Es gibt andere ähnliche Beispiele für das Versagen des Bootstraps unter überraschend einfachen Umständen.
Betrachten Sie ein Beispiel aus wobei der Parameterraum für auf . Die MLE ist in diesem Fall . Wir verwenden wieder die Bootstrap-Schätzung . Wiederum kann gezeigt werden, dass die Verteilung von (abhängig von der beobachteten Stichprobe) nicht zur gleichen einschränkenden Verteilung konvergiert wie .X1,X2,… N(μ,1) μ [0,∞) X^n=max(X¯,0) X^⋆n=max(X¯⋆,0) n−−√(X^⋆n−X^n) n−−√(X^n−μ)
Austauschbare Arrays
Vielleicht ist eines der dramatischsten Beispiele für ein austauschbares Array. Sei ein Array von Zufallsvariablen, so dass für jedes Paar Permutationsmatrizen und haben die Arrays und die gleiche gemeinsame Verteilung. Das heißt, das Permutieren von Zeilen und Spalten von hält die Verteilung unveränderlich. (Sie können sich ein bidirektionales Zufallseffektmodell mit einer Beobachtung pro Zelle als Beispiel vorstellen, obwohl das Modell viel allgemeiner ist.)Y=(Yij) P Q Y PYQ Y
Angenommen, wir möchten ein Konfidenzintervall für den Mittelwert schätzen (aufgrund der oben beschriebenen Austauschbarkeitsannahme für die Mittelwerte aller Zellen müssen gleich sein).μ=E(Yij)=E(Y11)
McCullagh (2000) betrachtete zwei verschiedene natürliche (dh naive) Möglichkeiten, ein solches Array zu booten. Keiner von ihnen erhält die asymptotische Varianz für den Stichprobenmittelwert korrekt. Er betrachtet auch einige Beispiele eines austauschbaren Einwegarrays und einer linearen Regression.
Verweise
Leider ist das Thema nicht trivial, so dass keines davon besonders einfach zu lesen ist.
quelle
Das folgende Buch enthält ein Kapitel (Kapitel 9) zum Thema "Wenn das Bootstrapping zusammen mit Abhilfemaßnahmen bei Fehlern fehlschlägt":
MR Chernick, Bootstrap-Methoden: Ein Leitfaden für Praktiker und Forscher , 2. Auflage. Hoboken NJ: Wiley-Interscience, 2008.
Die Themen sind:
quelle
Der naive Bootstrap hängt davon ab, dass die Stichprobengröße groß ist, sodass die empirische CDF für die Daten eine gute Annäherung an die "wahre" CDF darstellt. Dies stellt sicher, dass die Stichprobe aus der empirischen CDF der Stichprobe aus der "wahren" CDF sehr ähnlich ist. Der Extremfall ist, wenn Sie nur einen Datenpunkt abgetastet haben - Bootstrapping bringt hier nichts. Es wird mehr und mehr unbrauchbar, wenn es sich diesem entarteten Fall nähert.
Das naive Bootstrapping schlägt in der Zeitreihenanalyse nicht unbedingt fehl (auch wenn es ineffizient sein kann) - wenn Sie die Reihe mit Basisfunktionen der kontinuierlichen Zeit (z. B. legendären Polynomen) für eine Trendkomponente und Sinus- und Cosinusfunktionen der kontinuierlichen Zeit für zyklische Prozesse modellieren Komponenten (plus normaler Rauschfehlerterm). Dann geben Sie einfach an, wann immer Sie zufällig die Wahrscheinlichkeitsfunktion abgetastet haben. Keine Katastrophe für Bootstrapping hier.
Jedes Autokorrelations- oder ARIMA-Modell hat eine Darstellung in diesem Format - dieses Modell ist nur einfacher zu verwenden und ich denke zu verstehen und zu interpretieren (einfach zu verstehende Zyklen in Sinus- und Cosinusfunktionen, schwer zu verstehende Koeffizienten eines ARIMA-Modells). Beispielsweise ist die Autokorrelationsfunktion die inverse Fourier-Transformation des Leistungsspektrums einer Zeitreihe.
quelle