Mein Lehrbuch legt dies in eine Sidebox mit der Überschrift "Hinweis" und erklärt nicht warum. Können Sie mir sagen, warum diese Aussage gilt?
Mein Lehrbuch legt dies in eine Sidebox mit der Überschrift "Hinweis" und erklärt nicht warum. Können Sie mir sagen, warum diese Aussage gilt?
Antworten:
Nichts Formales, aber eine Analogie, die mir wirklich geholfen hat, dies zu verstehen, stammt aus einem Kalkültext. Stellen Sie sich vor, Sie haben ein Eisenrohr mit einer bestimmten Länge und einem bestimmten Gewicht. Und Sie möchten es in zwei Stücke schneiden. Wenn das Rohr etwa 1 m lang ist, können Sie es an der 0,5-Marke halbieren. Stellen Sie sich nun das Gewicht des Rohrs als einige konstante Zeiten der Länge des Rohrs vor (wir nehmen an, dass alle Querschnitte gleicher Länge das gleiche Gewicht haben).
Schneiden Sie das Rohr an der 0,5-m-Marke in zwei Hälften - wie viel Gewicht verlieren Sie? Denken Sie daran, dass der einzige Querschnitt, den Sie entfernen, die 0,5-m-Markierung selbst ist. Wie lang ist dieser Querschnitt? Bedenken Sie, dass 0,49999999 ... nicht davon getrennt ist und auch nicht 0,5000000000 ... 1 oder ein anderer Punkt, der nahe bei 0,5 liegt, aber nicht gleich 0,5 ist - die Länge dieses Querschnitts ist also technisch Null. Was bedeutet, dass Sie überhaupt kein Gewicht entfernen.
Dies würde erklären, warum und < für kontinuierliche Variablen grundsätzlich gleich sind - das Einschließen oder Ausschließen des Endpunkts ändert wirklich nichts - für jeden Punkt, den Sie in der Nähe des Endpunkts auswählen, gibt es immer noch unendlich viele Punkte zwischen ihnen.≤ <
Ist das sinnvoll?
quelle
Zuerst werde ich die Definition einer (absolut) kontinuierlichen Zufallsvariablen .Z.
(Erweiterte Wahrscheinlichkeit ist erforderlich, Sie viele überspringen es!)
Sei ein Wahrscheinlichkeitsraum und sei Z : Ω → R n ein Zufallsvektor. Die Wahrscheinlichkeit P X auf B ( R n ), definiert durch P Z ( A ) = P { Z ∈ A } , A ∈ B ( R n ), wird als Verteilung von Z bezeichnet . Nun, wenn P Z.( Ω , F., P.) Z.: Ω → R.n P.X. B ( R.n) P.Z.( A ) = P.{ Z.∈ A } A ∈ B ( R.n) Z. wobei μ das Lebesgue-Maß für R n ist (dh P istin Bezug auf μ absolut stetig), dann sagen wir, dass Z ein (absolut) kontinuierlicher Zufallsvektor ist. Unter Verwendung desRadon-Nikodym-Theoremsexistiert nun eine Funktion f : R n → [ 0 , + ∞ ], so dass P Z ( A ) = ∫ A f d μ für alle A ∈ B giltP.Z.≪ μ , μ R.n P. μ Z f:Rn→[0,+∞] PZ(A)=∫Afdμ . Wir nennen f die Dichtefunktion von Z .A∈B(Rn) f Z
Definieren Sie nun die kumulative Verteilungsfunktion (CDF) einer absolut kontinuierlichen Zufallsvariablen als: F Z ( z ) = P ( Z ≤ z ) .Z
Bevor ich einen formalen Beweis gebe, wollen wir ein Beispiel für eine kontinuierliche Zufallsvariable haben, die gleichmäßig verteilt ist, dh mit einer Wahrscheinlichkeitsdichtefunktion von für 0 ≤ z ≤ 1 und ansonsten 0. Versuchen wir nun, P zu finden ( z = 0,5 ) . Wir haben P ( z = 0,5 ) ~ P ( 0,4 < z ≤ 0,6 ) = ∫ 0,6 0,4 f ( z ) df(z)=1 0≤z≤1 P(z=0.5) Wir können das Intervall schrumpfen eine bessere Annäherung wie folgt zu erhalten: P ( z = 0,5 ) ~ P ( 0,49 < z ≤ 0,51 ) = ∫ 0,51 0,49 f ( z ) d Z = 0,02 , P ( z = 0,5 ) ~ P ( 0,499 < z ≤ 0,501 ) = ∫ 0,501 0,499 f (
quelle
Eine vielleicht intuitivere Erklärung ist, dass für eine kontinuierliche Variable der Beitrag der Kanten (z. B. oder ) zur kumulativen Wahrscheinlichkeit in den umgebenden Intervallen (oder Halbintervallen) vernachlässigbar gering ist.ba b
quelle