Wahrscheinlichkeitskonvergenz vs. fast sichere Konvergenz

67

Ich habe den Unterschied zwischen diesen beiden Konvergenzmaßen noch nie richtig herausgefunden. (Oder in der Tat eine der verschiedenen Arten der Konvergenz, aber ich erwähne diese beiden besonders wegen der schwachen und starken Gesetze für große Zahlen.)

Klar, ich kann die Definition von jedem zitieren und ein Beispiel geben, wo sie sich unterscheiden, aber ich verstehe es immer noch nicht ganz.

Was ist ein guter Weg, um den Unterschied zu verstehen? Warum ist der Unterschied wichtig? Gibt es ein besonders einprägsames Beispiel, in dem sie sich unterscheiden?

raegtin
quelle
Auch die Antwort auf diese Frage
kjetil b halvorsen

Antworten:

67

Aus meiner Sicht ist der Unterschied wichtig, aber größtenteils aus philosophischen Gründen. Angenommen, Sie haben ein Gerät, das sich mit der Zeit verbessert. Jedes Mal, wenn Sie das Gerät verwenden, ist die Wahrscheinlichkeit eines Ausfalls geringer als zuvor.

Die Wahrscheinlichkeitskonvergenz besagt, dass die Ausfallwahrscheinlichkeit auf Null sinkt, wenn die Anzahl der Nutzungen auf unendlich steigt. Nachdem Sie das Gerät viele Male benutzt haben, können Sie sicher sein, dass es richtig funktioniert. Es kann immer noch scheitern, es ist nur sehr unwahrscheinlich.

Die Konvergenz ist mit ziemlicher Sicherheit etwas stärker. Es heißt, dass die Gesamtzahl der Ausfälle endlich ist . Das heißt, wenn Sie die Anzahl der Fehler zählen, während die Anzahl der Verwendungen unendlich ist, erhalten Sie eine endliche Zahl. Dies hat folgende Auswirkungen: Wenn Sie das Gerät mehr und mehr verwenden, werden Sie nach einer begrenzten Anzahl von Einsätzen alle Fehler ausschöpfen. Ab dann funktioniert das Gerät einwandfrei .

Wie Srikant ausführt, wissen Sie eigentlich nicht, wann Sie alle Fehler ausgeschöpft haben. Aus rein praktischer Sicht gibt es also keinen großen Unterschied zwischen den beiden Konvergenzmodi.

Ich persönlich bin jedoch sehr froh, dass zum Beispiel das starke Gesetz der großen Zahlen existiert und nicht nur das schwache Gesetz. Denn ein wissenschaftliches Experiment, um beispielsweise die Lichtgeschwindigkeit zu ermitteln, ist berechtigt, Mittelwerte zu bilden. Zumindest theoretisch können Sie, nachdem Sie genügend Daten erhalten haben, der wahren Lichtgeschwindigkeit beliebig nahe kommen. Bei der Mittelwertbildung treten keine (jedoch unwahrscheinlichen) Fehler auf.

Lassen Sie mich klarstellen, was ich unter (jedoch unwahrscheinlichen) Fehlern im Mittelungsprozess verstehe. Wählen Sie einige beliebig klein. Sie erhalten Schätzungen der Lichtgeschwindigkeit (oder einer anderen Größe), die einen "wahren" Wert hat, beispielsweise . Sie berechnen den Durchschnitt Wenn wir mehr Daten erhalten ( erhöht sich), können wir für jedes berechnen . Das schwache Gesetz besagt (unter einigen Annahmen über das ), dass die Wahrscheinlichkeit als zuδ>0nX1,X2,,Xnμ

Sn=1nk=1nXk.
nSnn=1,2,Xn
P(|Snμ|>δ)0
n. Das starke Gesetz besagt, dass die , mit derist größer als ist endlich (mit Wahrscheinlichkeit 1). Das heißt, wenn wir die Indikatorfunktion , die eins zurückgibt, wenn und ansonsten Null, dann konvergiert . Dies gibt Ihnen ein beträchtliches Vertrauen in den Wert von , weil es (dh mit Wahrscheinlichkeit 1) die Existenz eines endlichen garantiert, so dass für alle (dh der Durchschnitt fällt nie für|Snμ|δI(|Snμ|>δ)|Snμ|>δ
n=1I(|Snμ|>δ)
Snn0|Snμ|<δn>n0n>n0). Beachten Sie, dass das schwache Gesetz keine solche Garantie gibt.
Robby McKilliam
quelle
1
Danke, ich mag die Konvergenz von unendlichen Sichtweisen!
Raegtin
1
Ich denke du meintest abzählbar und nicht unbedingt endlich, irre ich mich? Oder mische ich mich mit Integralen.
Royi
Genauer gesagt ist die Menge der Ereignisse, die auftreten (oder nicht), mit dem Maß Null -> Wahrscheinlichkeit, dass Null eintritt.
Royi
Ich bin nicht sicher, ob ich das Argument verstehe, das Ihnen mit ziemlicher Sicherheit "beträchtliches Vertrauen" gibt. Nur weil existiert, kannst du noch nicht sagen, ob du es erreicht hast. Endlich heißt nicht unbedingt klein oder praktisch erreichbar. An sich scheint das starke Gesetz Ihnen nicht zu sagen, wann Sie erreicht haben oder wann Sie erreichen werden . n0n0
Joseph Garvin
33

Ich weiß, dass diese Frage bereits beantwortet wurde (und meiner Meinung nach ganz gut), aber es gab hier eine andere Frage , die einen Kommentar @NRH enthielt, der die grafische Erklärung erwähnte, und statt die Bilder dorthin zu bringen , scheint sie passender zu sein setzen sie hier.

Also, hier geht. Es ist nicht so cool wie ein R-Paket. Es ist jedoch eigenständig und erfordert kein Abonnement für JSTOR.

Im Folgenden geht es um einen einfachen Zufallsrundgang, mit gleicher Wahrscheinlichkeit, und wir berechnen laufende Durchschnitte, Xi=±1

Snn=1ni=1nXi,n=1,2,.

Starkes Gesetz der großen Zahlen

Die SLLN (Konvergenz mit ziemlicher Sicherheit) besagt, dass wir zu 100% sicher sein können, dass diese Kurve, die sich nach rechts erstreckt, irgendwann für immer (nach rechts) vollständig in die Bänder fällt.

Der R-Code, der zum Generieren dieses Diagramms verwendet wird, ist unten angegeben (die Plotbezeichnungen wurden der Kürze halber weggelassen).

n <- 1000;  m <- 50; e <- 0.05
s <- cumsum(2*(rbinom(n, size=1, prob=0.5) - 0.5))
plot(s/seq.int(n), type = "l", ylim = c(-0.4, 0.4))
abline(h = c(-e,e), lty = 2)

Schwaches Gesetz der großen Zahlen

Die WLLN (Konvergenz der Wahrscheinlichkeit) besagt, dass sich ein großer Teil der Abtastpfade zum Zeitpunkt in den Bändern auf der rechten Seite befindet (für das Obige sieht es nach etwa 48 oder 9 von 50 aus). Wir können nie sicher sein, dass eine bestimmte Kurve zu einem bestimmten Zeitpunkt innen sein wird, aber die Masse der Nudeln darüber zu betrachten, wäre eine ziemlich sichere Sache. Die WLLN sagt auch, dass wir den Anteil der Nudeln im Inneren so nah wie möglich an 1 bringen können, indem wir die Handlung ausreichend breit machen.n

Es folgt der R-Code für das Diagramm (wiederum das Überspringen von Bezeichnungen).

x <- matrix(2*(rbinom(n*m, size=1, prob=0.5) - 0.5), ncol = m)
y <- apply(x, 2, function(z) cumsum(z)/seq_along(z))
matplot(y, type = "l", ylim = c(-0.4,0.4))
abline(h = c(-e,e), lty = 2, lwd = 2)
Gemeinschaft
quelle
6

Ich verstehe es wie folgt:

Konvergenz der Wahrscheinlichkeit

Die Wahrscheinlichkeit, dass die Folge von Zufallsvariablen gleich dem Zielwert ist, nimmt asymptotisch ab und nähert sich 0, erreicht jedoch niemals tatsächlich 0.

Fast sichere Konvergenz

Die Folge von Zufallsvariablen entspricht asymptotisch dem Zielwert, Sie können jedoch nicht vorhersagen, an welchem ​​Punkt dies geschehen wird.

Fast sicher ist Konvergenz eine stärkere Bedingung für das Verhalten einer Folge von Zufallsvariablen, da sie besagt, dass "auf jeden Fall etwas passieren wird" (wir wissen nur nicht wann). Im Gegensatz dazu stochastische Konvergenz heißt es, dass die Wahrscheinlichkeit von „während etwas wahrscheinlich geschehen ist“ „etwas nicht verringert asymptotisch passiert“ , aber nie erreicht tatsächlich 0. (etwas eine Folge von Zufallsvariablen konvergieren auf einen bestimmten Wert).

Das Wiki enthält einige Beispiele für beides, die zur Klärung des oben Gesagten beitragen sollen (siehe insbesondere das Beispiel des Bogenschützen im Kontext der Probenkonvergenz und das Beispiel der Wohltätigkeit im Kontext der fast sicheren Konvergenz).

Aus praktischer Sicht ist eine Konvergenz der Wahrscheinlichkeit ausreichend, da wir uns nicht besonders um sehr unwahrscheinliche Ereignisse kümmern. Beispielsweise ist die Konsistenz eines Schätzers im Wesentlichen eine Konvergenz der Wahrscheinlichkeit. Wenn wir also eine konsistente Schätzung verwenden, erkennen wir implizit die Tatsache an, dass es bei großen Stichproben eine sehr geringe Wahrscheinlichkeit gibt, dass unsere Schätzung weit vom wahren Wert entfernt ist. Wir leben mit diesem "Fehler" der Konvergenz der Wahrscheinlichkeit, da wir wissen, dass asymptotisch die Wahrscheinlichkeit, dass der Schätzer weit von der Wahrheit entfernt ist, verschwindend gering ist.

gung - Wiedereinsetzung von Monica
quelle
Der versuchte Editor argumentiert, dass dies lauten sollte: "Die Wahrscheinlichkeit, dass die Folge von Zufallsvariablen nicht dem Zielwert entspricht ...".
gung - Wiedereinsetzung von Monica
"Die Wahrscheinlichkeit, dass die Folge von Zufallsvariablen gleich dem Zielwert ist, nimmt asymptotisch ab und nähert sich 0, erreicht jedoch nie tatsächlich 0." Sollte es nicht MAI nie 0 erreichen?
Jyotish Robin
@gung Die Wahrscheinlichkeit, dass es dem Zielwert entspricht, nähert sich 1 oder die Wahrscheinlichkeit, dass es nicht den Zielwerten entspricht, nähert sich 0. Die aktuelle Definition ist falsch.
Undertherainbow
5

Wenn Sie visuelle Erklärungen mögen, gibt es im American Statistician (siehe unten) einen netten Artikel über 'Teacher's Corner' zu diesem Thema. Als Bonus legten die Autoren ein R-Paket bei , um das Lernen zu erleichtern.

@article{lafaye09,
  title={Understanding Convergence Concepts: A Visual-Minded and Graphical Simulation-Based Approach},
  author={Lafaye de Micheaux, P. and Liquet, B.},
  journal={The American Statistician},
  volume={63},
  number={2},
  pages={173--178},
  year={2009},
  publisher={ASA}
}
Kingsford Jones
quelle
1

Dieser letzte Typ erklärt es sehr gut. Wenn Sie eine Folge von Zufallsvariablen Xn = 1 mit Wahrscheinlichkeit 1 / n und sonst Null nehmen. Es ist leicht zu sehen, dass Grenzen genommen werden, die mit einer Wahrscheinlichkeit gegen Null konvergieren, aber fast sicher nicht konvergieren. Wie er sagte, ist es wahrscheinlich egal, ob wir irgendwann einen kriegen. Mit ziemlicher Sicherheit.

Mit ziemlicher Sicherheit bedeutet dies Konvergenz der Wahrscheinlichkeit, aber nicht umgekehrt.

Tim Brown
quelle
5
Willkommen auf der Website, @ Tim-Brown, wir freuen uns über Ihre Hilfe bei der Beantwortung von Fragen. Eine Sache zu beachten ist, dass es am besten ist, andere Antworten durch den Benutzernamen des Antwortenden zu identifizieren, "dieser letzte Typ" wird nicht sehr effektiv sein. ZB wird die Liste im Laufe der Zeit neu sortiert, wenn die Leute abstimmen. Vielleicht möchten Sie unsere FAQ lesen .
gung - Wiedereinsetzung von Monica
0

Eine Sache, die mir geholfen hat, den Unterschied zu begreifen, ist die folgende Äquivalenz

ε > 0P(limn|XnX|=0)=1⇐⇒limn(supm>=n|XmX|>ϵ)=0 ϵ>0

Im Vergleich stochastische Konvergenz:

ϵ > 0limnP(|XnX|>ϵ)=0 ϵ>0

Wenn man die rechte Seite der oberen Äquivlanz mit der stochastischen Konvergenz vergleicht, wird der Unterschied meiner Meinung nach deutlicher.

Sebastian
quelle