Eine naive Methode zur Annäherung an eine Normalverteilung besteht darin, etwa IID-Zufallsvariablen, die gleichmäßig auf verteilt sind, zu addieren , neu zu zentrieren und neu zu skalieren, wobei auf den zentralen Grenzwertsatz zurückgegriffen wird. ( Randnotiz : Es gibt genauere Methoden wie die Box-Muller-Transformation .) Die Summe der IID -Zufallsvariablen wird als gleichmäßige Summenverteilung oder Irwin-Hall-Verteilung bezeichnet .U ( 0 , 1 )
Wie groß ist der Fehler bei der Annäherung einer gleichmäßigen Summenverteilung an eine Normalverteilung?
Immer wenn diese Art von Frage auftaucht, um die Summe der IID-Zufallsvariablen zu approximieren, bringen Leute (einschließlich ich) das Berry-Esseen-Theorem zur Sprache , das eine effektive Version des zentralen Grenzwertsatzes ist, vorausgesetzt, der dritte Moment existiert:
wobei die kumulative Verteilungsfunktion für die neu skalierte Summe von IID-Zufallsvariablen ist, ist das absolute dritte zentrale Moment, ist die Standardabweichung und ist eine absolute Konstante, die mit oder sogar .
Das ist unbefriedigend. Es scheint mir, dass die Berry-Esseen-Schätzung bei diskreten Binomialverteilungen der Schärfe am nächsten kommt, wobei der größte Fehler bei einer symmetrischen Binomialverteilung bei . Der größte Fehler tritt beim größten Sprung auf. Die gleichmäßige Summenverteilung weist jedoch keine Sprünge auf.
Numerische Tests legen nahe, dass der Fehler schneller als .
Mit 1/2 ist die Berry-Esseen-Schätzung| F n ( x ) - Φ ( x ) | ≤ 1
was für , ungefähr , bzw. ist. Die tatsächlichen maximalen Differenzen für scheinen ungefähr , bzw. , die viel kleiner sind und als anstelle von zu fallen scheinen .0,205 0,145 0,103 n = 10 , 20 , 40 0,00281 0,00139 0,000692 c / n c / √
quelle
Antworten:
Sei iid U ( - b , b ) Zufallsvariablen und betrachte die normierte Summe S n = √U1, U2, … U( - b , b )
Lemma 1 ( Uspensky ): Die folgende Schranke für gilt. δ n < 1δn
Beweis . Siehe JV Uspensky (1937), Einführung in die mathematische Wahrscheinlichkeit , New York: McGraw-Hill, p. 305.
Dies wurde später von R. Sherman zu folgenden verbessert.
Lemma 2 ( Sherman ): Die folgende Verbesserung der Uspensky-Grenze gilt.
Beweis : Siehe R. Sherman, Fehler der normalen Annäherung an die Summe von N Zufallsvariablen , Biometrika , vol. 58, nein. 2, 396–398.
Der Beweis ist eine ziemlich einfache Anwendung der Dreiecksungleichung und der klassischen Schranken am Ende der Normalverteilung und von auf die charakteristischen Funktionen jeder der beiden Verteilungen.( Sündex ) / x
quelle