Bei der Konvergenz der Wahrscheinlichkeit oder als Konvergenz für welches Maß ist die Wahrscheinlichkeit?

8

Ich präsentierte Beweise für WLLN und eine Version von SLLN (unter der Annahme eines begrenzten 4. zentralen Moments), als jemand fragte, welches Maß auch die Wahrscheinlichkeit in Bezug auf Respekt ist, und mir wurde klar, dass ich mir beim Nachdenken nicht ganz sicher war.

Es scheint einfach zu sein, da wir in beiden Gesetzen eine Folge von 's, unabhängigen RVs mit identischem Mittelwert und endlicher Varianz haben. Es ist nur eine Zufallsvariable in Sicht, nämlich das , also muss die Wahrscheinlichkeit der Verteilung des , oder? Aber dann scheint das für das starke Gesetz nicht ganz richtig zu sein, da die typische Beweismethode darin besteht, ein neues RV und damit zu arbeiten und die Grenze liegt innerhalb der Wahrscheinlichkeit:XiXiXiSn:=i=1nXi

Pr[limn1ni=1nXi=E[Xi]]=1

Nun sieht es so aus, als ob das RV die Summen über n Terme sind, also liegt die Wahrscheinlichkeit über der Verteilung der Summen Sn , wobei n nicht mehr fest ist. Ist das korrekt? Wenn ja, wie würden wir vorgehen, um ein geeignetes Wahrscheinlichkeitsmaß für die Folgen von Teilsummen zu konstruieren?

Wir freuen uns über intuitive und formale Antworten, z. B. reale oder komplexe Analysen, Wahrscheinlichkeit / Statistik für Studenten, grundlegende Maßtheorie. Ich habe Konvergenz in Wahrscheinlichkeit vs. fast sichere Konvergenz und zugehörige Links gelesen , finde dort aber keine Hilfe.

Bob Durrant
quelle
1
Vielleicht interessiert Sie auch diese aktuelle Frage , die einige verwandte Punkte berührt.
Kardinal
@ Kardinal Danke - und +1 für die X-Ref, die eindeutig verwandt ist.
Bob Durrant

Antworten:

12

Das Wahrscheinlichkeitsmaß ist in beiden Fällen das gleiche, aber die Frage des Interesses ist zwischen beiden unterschiedlich. In beiden Fällen haben wir eine (zählbar) unendliche Folge von Zufallsvariablen, die auf einem einzelnen Wahrscheinlichkeitsraum . Wir nehmen jeweils , und als die unendlichen Produkte (hier ist Vorsicht geboten, da es sich nur um Wahrscheinlichkeitsmaße handelt, da wir sonst auf Probleme stoßen können).(Ω,F,P)ΩFP

Für die SLLN ist uns die Wahrscheinlichkeit (oder das Maß) der Menge aller wichtig, bei denen die skalierten Teilsummen NICHT konvergieren. Dieser Satz hat das Maß Null (wrt ), sagt die SLLN.ω=(ω1,ω2,)P

Für die WLLN, was wir kümmern uns um das Verhalten der Folge von Projektions Maßnahmen , wobei für jedes , ist die Projektion von auf den endlichen messbaren Raum . Die WLLN sagt, dass die (projizierte) Wahrscheinlichkeit der Zylinder (dh Ereignisse mit ), bei denen die skalierten Teilsummen nicht konvergieren, im Grenzwert als auf Null geht geht ins Unendliche.(Pn)n=1nPnPΩn=i=1nΩiX1,,Xnn

In der WLLN berechnen wir Wahrscheinlichkeiten, die aus dem unendlichen Produktraum entfernt zu sein scheinen, aber sie sind nie wirklich verschwunden - sie waren die ganze Zeit dort. Wir haben nur von 1 bis auf den Unterraum projiziert und danach das Limit genommen. Dass so etwas möglich ist, dass es möglich ist, ein Wahrscheinlichkeitsmaß für einen unendlichen Produktraum so zu konstruieren, dass die Projektionen für jedes entsprechen, was wir denken, dass sie sollten und tun, was sie tun sollen, ist eine der Konsequenzen von Kolmogorovs Erweiterungssatz .nn

Wenn Sie mehr lesen möchten, habe ich die ausführlichste Diskussion über subtile Punkte wie diese in "Wahrscheinlichkeits- und Maßtheorie" von Ash, Doleans-Dade, gefunden. Es gibt ein paar andere, aber Ash / DD ist mein Favorit.


quelle
+1, ich habe angefangen, meine eigene Erklärung zu schreiben, aber deine ist viel besser.
mpiktas
1
+1. Darf ich nur hinzufügen, dass wir visuell orientiert häufig den Beispielpfad zeichnen und erwarten, dass der Graph ungefähr die Erwartung für großes . Das ist genau , was die SLLN sagt passieren wird. Die WLLN sagt etwas, das vager ist, und es garantiert nicht, dass das Diagramm irgendwann gleich wird. Da die SLLN gilt, wird dies der Fall sein, aber es gibt andere Gegenbeispiele, die zeigen, dass wir eine Konvergenz der Wahrscheinlichkeit haben können, und dennoch wird der Stichprobenpfad mit der Wahrscheinlichkeit eins nicht gleich hoch sein. (n,1nSn)n
NRH
@ MPiktas, danke. @NRH, ja, du bist genau richtig. Wenn ich später am Abend etwas Zeit habe, kann ich vielleicht ein Diagramm hinzufügen, über das Sie gesprochen haben.
@NRH Danke für den Vorschlag; Ich habe einige Grafiken erstellt, aber sie schienen in der anderen Frage hier besser platziert zu sein: stats.stackexchange.com/questions/2230/…
@G. Jay, großartig, und du hast auch +1 für diese Antwort.
NRH