Gibt es eine umgekehrte Chernoff-Grenze, die einschränkt, dass die Schwanzwahrscheinlichkeit mindestens so groß ist.
dh wenn unabhängige binomiale Zufallsvariablen sind und . Dann können wir für eine Funktion f beweisen, dass .
pr.probability
chernoff-bound
Ashwinkumar BV
quelle
quelle
Antworten:
Hier ist ein expliziter Beweis dafür, dass eine Standard-Chernoff-Bindung für einen bestimmten Bereich der Parameter bis zu konstanten Faktoren im Exponenten eng ist. (Insbesondere, wenn die Variablen 0 oder 1 und 1 mit einer Wahrscheinlichkeit von 1/2 oder weniger undϵ∈(0,1/2) sind und die Chernoff-Obergrenze kleiner als eine Konstante ist.)
Wenn Sie einen Fehler finden, lassen Sie es mich bitte wissen.
Lemma 1. (Enge der Chernoff-Grenze) SeiX der Durchschnitt von k unabhängigen 0/1-Zufallsvariablen (rv). Für jedes ϵ∈(0,1/2] und p∈(0,1/2] , vorausgesetzt, ϵ2pk≥3 ,
(i) Wenn jedes rv mit einer Wahrscheinlichkeit von höchstens , dann istp
(ii) Wenn jedes rv mit einer Wahrscheinlichkeit von mindestens , dann istp
Beweis. Wir verwenden die folgende Beobachtung:
Behauptung 1. Wenn , dann1≤ℓ≤k−1 (kℓ) ≥ 1e2πℓ−−−√(kℓ)ℓ(kk−ℓ)k−ℓ
Beweis von Anspruch 1. Nach Stirlings Näherung ist wobeii!=2πi−−−√(i/e)ieλ λ∈[1/(12i+1),1/12i].
Also ist , was ist mindestens QED(kℓ) k!ℓ!(k−ℓ)!
Beweis von Lemma 1 Teil (i). Ohne Allgemeingültigkeitsverlust sei angenommen, dass jede 0/1-Zufallsvariable in der Summe mit einer Wahrscheinlichkeit von genau . Hinweis entspricht der Summe , und .X p Pr[X≤(1−ϵ)p] ∑⌊(1−ϵ)pk⌋i=0Pr[X=i/k] Pr[X=i/k]=(ki)pi(1−p)k−i
Fix . Die Terme in der Summe nehmen zu, also haben die Terme mit dem Index jeweils einen Wert von mindestens , also hat ihre Summe einen Gesamtwert von mindestens . Um den Beweis zu vervollständigen, zeigen wir, dassℓ=⌊(1−2ϵ)pk⌋+1 i≥ℓ Pr[X=ℓ/k] (ϵpk−2)Pr[X=ℓ/k]
Die Annahmen und ergeben , so dass die linke Seite oben mindestens . Verwendung von Anspruch 1, gebunden , ist dies wiederum mindestens , wo undϵ2pk≥3 ϵ≤1/2 ϵpk≥6 23ϵpk(kℓ)pℓ(1−p)k−ℓ (kℓ) AB A=23eϵpk/2πℓ−−−√ B=(kℓ)ℓ(kk−ℓ)k−ℓpℓ(1−p)k−ℓ.
Zum Schluss zeigen wir und .A≥exp(−ϵ2pk) B≥exp(−8ϵ2pk)
Anspruch 2.A≥exp(−ϵ2pk)
Beweis von Anspruch 2. Die Annahmen und implizieren (i) .ϵ2pk≥3 ϵ≤1/2 pk≥12
Per Definition . Bis (i) . Somit ist (ii) .ℓ≤pk+1 pk≥12 ℓ≤1.1pk
Einsetzen der rechten Seite von (ii) für in ergibt (iii) .ℓ A A≥23eϵpk/2.2π−−−−−−√
Die Annahme impliziert , was mit (iii) (iv) ergibt .ϵ2pk≥3 ϵpk−−√≥3–√ A≥23e3/2.2π−−−−−−√≥0.1
Aus folgt, dass (v) .ϵ2pk≥3 exp(−ϵ2pk)≤exp(−3)≤0.04
(iv) und (v) ergeben zusammen den Anspruch. QED
Anspruch 3. .B≥exp(−8ϵ2pk)
Beweis nach Anspruch 3. Fixiere so, dass . Die Wahl von impliziert , daher gilt die Behauptung so lange wie . Nimmt man jede Seite dieser letzteren Ungleichung und vereinfacht sie, so entspricht dies Wenn Sie und vereinfachen, entspricht diesδ ℓ=(1−δ)pk
ℓ δ≤2ϵ B≥exp(−2δ2pk) −1/ℓ
Ansprüche 2 und 3 implizieren . Dies impliziert Teil (i) des Lemmas.AB≥exp(−ϵ2pk)exp(−8ϵ2pk)
Beweis von Lemma 1 Teil (ii). Ohne Beschränkung der Allgemeinheit annehmen , jede Zufallsvariable mit einer Wahrscheinlichkeit von genau .1 p
Beachten Sie . Fix .Pr[X≥(1+ϵ)p]=∑ni=⌈(1−ϵ)pk⌉Pr[X=i/k] ℓ^=⌈(1+2ϵ)pk⌉−1
Die letzten Terme in der Summe ergeben mindestens , was mindestens . (Der Beweis dafür ist der gleiche wie für (i), außer dass durch und durch so dass .) QEDϵpk (ϵpk−2)Pr[X=ℓ^/k] exp(−9ϵ2pk) ℓ ℓ^ δ −δ^ ℓ^=(1+δ^)pk
quelle
Das Berry-Esseen-Theorem kann Schwanzwahrscheinlichkeits-Untergrenzen angeben, solange sie höher als .n−1/2
Ein weiteres Werkzeug, das Sie verwenden können, ist die Paley-Zygmund-Ungleichung . Es impliziert , dass für eine beliebige gerade Zahl und jede reellwertigen Zufallsvariablen ,k X
Zusammen mit dem Multinomialsatz kann für eine Summe von Rademacher-Zufallsvariablen Paley-Zygmund ziemlich starke Untergrenzen ergeben. Es funktioniert auch mit Randed-Independence-Zufallsvariablen. Zum Beispiel erhalten Sie leicht, dass die Summe von 4-fach unabhängigen Zufallsvariablen mit konstanter Wahrscheinlichkeit ist.X n n ±1 Ω(n−−√)
quelle
Wenn Sie in der Tat in der Lage sind, die Anzahl der Bernoulli-Versuche zu begrenzen (und nicht etwa die Anzahl der zufälligen Variablen), ist das Folgende ziemlich eng.
(Wenn man das Argument von als Transformation der Standardnormalen betrachtet, stimmt dies genau mit dem überein, was die CLT Ihnen sagt. Tatsächlich sagt es uns, dass Binomialzahlen, die die Bedingungen des Theorems erfüllen, ihre entsprechenden Gaußschen auf den oberen Schwänzen dominieren.)Φ
Ab hier können Sie Grenzen für , um etwas Schöneres zu erhalten. Zum Beispiel wird in Fellers erstem Buch im Abschnitt über Gauß'sche Verhältnisse für jedes dass wobei die Dichte einer Standardnormalen ist. Ähnliche Grenzen gibt es auch im Wikipedia-Artikel für "Q-Funktion".Φ z>0
Anders als das und was andere Leute gesagt haben, können Sie auch versuchen, das Binomial direkt zu verwenden, vielleicht mit etwas Stirling.
(*) Einige neuere Aussagen über die Ungleichheit von Slud lassen einige dieser Bedingungen außer Acht. Ich habe die in Sluds Papier reproduziert.
quelle
Der Satz von de Moivre-Laplace zeigt, dass Variablen wieNach einer geeigneten Normalisierung und unter bestimmten Bedingungen wird die Verteilung zu einer Normalverteilung konvergieren. Das reicht, wenn Sie konstante Untergrenzen wünschen.|T∩S1|
Für untere Schranken wie benötigen Sie ein etwas feineres Werkzeug. Hier ist ein Hinweis, den ich kenne (aber nur aus Versehen - ich hatte noch nie die Gelegenheit, eine solche Ungleichung selbst zu verwenden). Einige explizite untere Schranken für die Endwahrscheinlichkeiten von Binomialverteilungen sind in Theorem 1.5 des Buches Random Graphs von Béla Bollobás, Cambridge, 2. Auflage, angegeben, in dem auf eine Einführung in die Wahrscheinlichkeit und ihre Anwendungen von Feller und Foundations of Probability von Rényi verwiesen wird.n−c
quelle
Das verallgemeinerte Littlewood-Offord-Theorem ist nicht genau das, was Sie wollen, aber es gibt das, was ich als "umgekehrtes Chernoff" bezeichne, indem es zeigt, dass es unwahrscheinlich ist, dass die Summe der Zufallsvariablen in einen kleinen Bereich um einen bestimmten Wert fällt (einschließlich die Erwartung). Vielleicht wird es nützlich sein.
Formal lautet der Satz wie folgt.
Verallgemeinerter Littlewood-Offord-Satz : Sei und reelle Zahlen, so dass for und lassen unabhängige Zufallsvariablen sein, die die Werte Null und Eins haben. Nehmen wir für , dass für alle . Dann, für jedes , Wobei eine Konstante ist, die nur von abhängt .a1,…,an s>0 |ai|≥s 1≤i≤n X1,…,Xn 0<p≤12 p≤Pr[Xi=0]≤1−p 1≤i≤n r∈R
quelle
Der Exponent in der Standard-Chernoff-Grenze, wie er in Wikipedia angegeben ist, ist eng für Zufallsvariablen mit einem Wert von 0/1. Lassen und lassen eine Folge von unabhängigen Zufallsvariablen , so dass für jedes , und . Dann für jede ,0<p<1 X1,X2,… i Pr[Xi=1]=p Pr[Xi=0]=1−p ε>0
Hier ist , was die Kullback-Leibler-Divergenz zwischen Bernoulli-Zufall ist Variablen mit den Parametern und .D(x∥y)=xlog2(x/y)+(1−x)log2((1−x)/(1−y)) x y
Wie erwähnt, wird die obere Schranke in der obigen Ungleichung auf Wikipedia ( https://en.wikipedia.org/wiki/Chernoff_bound ) unter dem Namen "Chernoff-Hoeffding Theorem, additive Form" bewiesen . Die Untergrenze kann zB mit der "Methode der Typen" nachgewiesen werden. Siehe Lemma II.2 in [1]. Dies wird auch im klassischen Lehrbuch zur Informationstheorie von Cover und Thomas behandelt.
[1] Imre Csiszár: Die Methode der Typen. IEEE-Transaktionen zur Informationstheorie (1998). http://dx.doi.org/10.1109/18.720546
quelle