Angenommen, wir haben IID-Zufallsvariablen mit der Verteilung . Wir werden eine Probe des beobachten ist auf folgende Weise: lassen unabhängig Zufallsvariablen an , dass die ganze 's und ‚s sind unabhängig und definieren die Stichprobengröße . Die - geben an, welche der - in der Stichprobe enthalten sind, und wir möchten den Anteil der Erfolge in der Stichprobe untersuchen, der durch definiert ist
Für wollen wir eine Obergrenze für , die mit exponentiell abfällt . Die Ungleichung von Hoeffding gilt aufgrund der Abhängigkeiten zwischen den Variablen nicht sofort.P r n
Antworten:
Wir können auf ziemlich direkte Weise eine Verbindung zu Höffdings Ungleichung herstellen .
Beachten , dass wir
SetzeZi=(Xi−θ−ϵ)Yi+ϵ/2 so dass die Zi iid sind, EZi=0 und
Es gibt eine reiche und faszinierende Literatur, die sich in den letzten Jahren insbesondere zu Themen der Zufallsmatrixtheorie mit verschiedenen praktischen Anwendungen aufgebaut hat. Wenn Sie sich für so etwas interessieren, empfehle ich:
Ich denke, die Darstellung ist klar und bietet eine sehr schöne Möglichkeit, sich schnell an die Literatur zu gewöhnen.
quelle
Details, um den Fall .N=0
For Alecos.
quelle
This answer keeps mutating. The current version does not relate to the discussion I had with @cardinal in the comments (although it was through this discussion that I thankfully realized that the conditioning approach did not appear to lead anywhere).
For this attempt, I will use another part of Hoeffding's original 1963 paper, namely section 5 "Sums of Dependent Random Variables".
Set
while we setWi=0 if ∑ni=1Yi=0 .
Then we have the variable
We are interested in the probability
As for many other inequalities, Hoeffding starts his reasoning by noting that
For the dependent-variables case, as Hoeffding we use the fact that∑ni=1Wi=1 and invoke Jensen's inequality for the (convex) exponential function, to write
and linking results to arrive at
Focusing on our case, sinceWi and Xi are independent, expected values can be separated,
In our case, theXi are i.i.d Bernoullis with parameter θ , and E[ehXi] is their common moment generating function in h , E[ehXi]=1−θ+θeh . So
Minimizing the RHS with respect toh , we get
Plugging it into the inequality and manipulating we obtain
while
Hoeffding shows that
Courtesy of the OP (thanks, I was getting a bit exhausted...)
So, finally, the "dependent variables approach" gives us
Let's compare this to Cardinal's bound, that is based on an "independence" transformation,BI . For our bound to be tighter, we need
So forn≤4 we have BD≤BI . For n≥5 , pretty quickly BI becomes tighter than BD but for very small ϵ , while even this small "window" quickly converges to zero. For example, for n=12 , if ϵ≥0.008 , then BI is tighter. So in all, Cardinal's bound is more useful.
COMMENTWi 's are numbers, not random variables, while each Xi is a sum of independent random variables, while the dependency may exist between the Xi 's. He then considers various "U-statistics" that can be represented in this way.
To avoid misleading impressions regarding Hoeffding's original paper, I have to mention that Hoeffding examines the case of a deterministic convex combination of dependent random variables. Specificaly, his
quelle