Bei einer gegebenen Folge von iid-Zufallsvariablen sagen wir für , ich versuche die erwartete Anzahloft die empirischen Mittelwert gebundenüberschreitet einen Wert,, wenn wir weiterhin Proben zeichnen, dh:
Wenn wir annehmen, dass für einige , können wir Hoeffdings Ungleichung verwenden , um zu erhalten
Was (vielleicht) gut aussieht, aber eigentlich ziemlich locker gebunden ist, gibt es bessere Möglichkeiten, diesen Wert zu begrenzen? Ich gehe davon aus, dass es einen Weg geben kann, da die verschiedenen Ereignisse (für jedes ) eindeutig nicht unabhängig sind. Mir ist kein Weg bekannt, diese Abhängigkeit auszunutzen. Es wäre auch schön, die Einschränkung zu entfernen, dass größer als der Mittelwert ist.
edit : Die Einschränkung auf größer als der Mittelwert ist, kann aufgehoben werden, wenn wirMarkovs Ungleichungwie folgt verwenden:
Was allgemeiner ist, aber viel schlimmer als die oben angegebene Grenze, obwohl klar ist, dassTimmer dann divergieren muss, wennc≤E[X] ist.
Antworten:
Dies ist ein ziemlich handgemachter Ansatz, und ich würde mich sehr über einen Kommentar dazu freuen (und die kritisierenden sind normalerweise die hilfreichsten). Wenn ich das richtig verstehe, berechnet das OP die Stichprobenmittelwerte , wobei jede Stichprobe die vorherige Stichprobe +1 Beobachtung aus einem neuen rv enthält. Bezeichnen Sie F j die Verteilung jedes Stichprobenmittelwerts. Dann können wir schreibenx¯j Fj
Betrachten wir eine Stichprobengröße , nach der die Verteilung der Probe Mittelwert fast normal ist, bezeichnen es Gm G^ . Dann können wir schreiben
Die Lösung G j ( c ) erhalten wir G j ( c ) = 1 - Φ ( √G^j(c)
wobeiΦdie Standardnormal-cdf ist,σdie Standardabweichung des iid-Prozesses ist undμsein Mittelwert ist. Einfügen in die Bindung und Neuanordnung erhalten wir
Beachten Sie, dass diese Grenze auch von der Varianz des Prozesses abhängt. Ist dies eine bessere Bindung als die in der Frage dargestellte? Dies hängt entscheidend davon ab, wie "schnell" die Verteilung des Stichprobenmittelwerts "fast normal" wird. Um ein numerisches Beispiel zu geben, nehmen wir an, dass . Angenommen, die Zufallsvariablen sind in [ 0 , 1 ] einheitlich . Dann ist σ = √m=30 [0,1] undμ=1σ=112−−√ μ=12 a=0.05 n=34 n>30 n=100 78.5 36.2 ≈199.5 ≈38.5 a a=0.1 , der Hoeffding konvergent gebunden49.5 while the bound I propose converges to 30.5 (i.e the sum of the normal cdfs contributes very little to the overall bound).n→∞ the Hoeffding bound converges to
Somewhat more generally, we note that for
Since for small values ofa (which is rather the case of interest) Hb becomes a large number, there is still the case that Ab may outperform it in tightness, even if the sample is such that the distribution of the sample mean converges slowly to the normal distribution.
quelle