Ist es für eine gegebene konstante Zahl (zB 4) möglich, eine Wahrscheinlichkeitsverteilung für , so dass wir ?X V a r ( X ) = r
9
Ist es für eine gegebene konstante Zahl (zB 4) möglich, eine Wahrscheinlichkeitsverteilung für , so dass wir ?X V a r ( X ) = r
Antworten:
Betrachten Sie die Fälle für sorgfältig : Wenn ist die Verteilung entartet, aber könnte einen beliebigen Mittelwert haben. Das heißt, und \ Pr (X = c) = 0 für jedes c \ neq \ mu . Wir können also viele mögliche Verteilungen für X finden , aber sie werden durch \ mu \ in \ mathbb {R} indiziert und vollständig angegeben .r = 0 X Pr ( X = μ ) = 1 Pr ( X = c ) = 0 c ≤ μ X μ ≤ R.r r = 0 X. Pr ( X.= μ ) = 1 Pr ( X.= c ) = 0 c ≠ μ X. μ ∈ R.
Wenn , kann keine Verteilung gefunden werden, da .V a r ( X ) = E ( X - μ X ) 2 ≥ 0r < 0 V a r (X.) = E ( X.- μX.)2≥ 0
Für hängt die Antwort davon ab, welche zusätzlichen Informationen über . Wenn beispielsweise bekannt ist, dass Mittelwert , können wir für jedes und eine Verteilung mit diesen Momenten finden, indem wir . Dies ist keine eindeutige Lösung für das Problem der Übereinstimmung von Mittelwert und Varianz, aber es ist die einzige normalverteilte Lösung (und von allen möglichen Lösungen ist dies diejenige, die die Entropie maximiert, wie Daniel betont). Wenn Sie beispielsweise auch mit dem dritten zentralen Moment oder höher übereinstimmen möchten, müssen Sie einen breiteren Bereich von Wahrscheinlichkeitsverteilungen berücksichtigen.X X μ μ ∈ R r > 0 X ∼ N ( μ , r )r > 0 X. X. μ μ ∈ R. r > 0 X.∼ N.( μ , r )
Angenommen, wir hätten stattdessen einige Informationen über die Verteilung von und nicht über seine Momente. Wenn wir beispielsweise wissen, dass einer Poisson-Verteilung folgt, wäre die eindeutige Lösung . Wenn wir wissen, dass einer Exponentialverteilung folgt, gibt es wieder eine eindeutige Lösung , bei der wir den Parameter durch Lösen von .X X ~ P o i s s o n ( r ) X X ~ E x p o n e n t i ein l ( 1X. X. X.~ P o i s s o n ( r ) X. Var(X)=r=1X.∼ E x p o n e n t i a l ( 1r√) V a r (X.) = r = 1λ2
In anderen Fällen können wir eine ganze Familie von Lösungen finden. Wenn wir wissen, dass einer rechteckigen (kontinuierlichen gleichmäßigen) Verteilung folgt, können wir eine eindeutige Breite für die Verteilung finden, indem wir lösen . Es wird jedoch eine ganze Familie von Lösungen geben, die durch parametrisiert sind - die Verteilungen in dieser Menge sind alle Übersetzungen voneinander. In ähnlicher Weise würde, wenn normal ist, jede Verteilung funktionieren (also haben wir eine ganze Reihe von durch indizierten Lösungen , die wiederum eine beliebige reelle Zahl sein können, und wieder sind die Familien alle Übersetzungen von einander). Wennw V a r ( X ) = r = w 2X. w X≤U(a,a+w)a≤RXX≤N(μ,r)μXX≤Gamma(rV a r (X.) = r = w212 X.∼ U.( a , a + w ) a ∈ R. X. X.∼ N.( μ , r ) μ X. folgt einer Gammaverteilung, dann können wir unter Verwendung der Formskalenparametrisierung eine ganze Familie von Lösungen erhalten, parametrisiert durch . Mitglieder dieser Familie sind keine Übersetzungen voneinander. Um zu veranschaulichen, wie eine "Familie von Lösungen" aussehen könnte, finden Sie hier einige Beispiele für Normalverteilungen, die mit indiziert sind , und dann Gammaverteilungen, die mit indiziert sind , alle mit einer Varianz von vier, entsprechend dem Beispiel in Ihre Frage.θ>0μθr=4X.∼ G a m m a ( rθ2, θ ) θ > 0 μ θ r=4
Andererseits kann es für einige Verteilungen abhängig vom Wert von möglich sein, eine Lösung zu finden oder nicht . Wenn beispielsweise eine Bernoulli-Variable sein muss, gibt es für zwei mögliche Lösungen da es zwei Wahrscheinlichkeiten die die Gleichung , und tatsächlich sind diese beiden Wahrscheinlichkeiten komplementär, dh . Für gibt es nur die eindeutige Lösung , und für weist keine Bernoulli-Verteilung eine ausreichend hohe Varianz auf.X 0 ≤ r < 0,25 X ~ B e r n o u l l i ( p ) , p V a r ( X ) = r = p ( 1 - p ) p 1 + p 2 = 1 r = 0,25 p = 0,5 r > 0,25r X 0≤r<0.25 X∼Bernoulli(p) p Var(X)=r=p(1−p) p1+p2=1 r=0.25 p=0.5 r>0.25
Ich denke, ich sollte auch den Fall erwähnen . Auch für diesen Fall gibt es Lösungen, zum Beispiel eine Student- Verteilung mit zwei Freiheitsgraden.tr=∞ t
R-Code für Diagramme
quelle
Angenommen, Sie meinen "ist es möglich, eine Wahrscheinlichkeitsverteilung für zu finden", lautet die Antwort "Ja", da Sie keine Kriterien angegeben haben, die erfüllen muss. Tatsächlich gibt es unendlich viele mögliche Verteilungen, die diese Bedingung erfüllen würden. Betrachten Sie einfach eine Normalverteilung, . Sie können und kann einen beliebigen Wert annehmen - Sie haben dann nach Bedarf.X N ( x ; μ , σ 2 ) σ 2 = r μ V a r [ X ] = rX X N(x;μ,σ2) σ2=r μ Var[X]=r
Tatsächlich ist die Normalverteilung in dieser Hinsicht ziemlich speziell, da sie die maximale Entropiewahrscheinlichkeitsverteilung für einen gegebenen Mittelwert und eine gegebene Varianz ist.
quelle
Diese Frage kann so interpretiert werden, dass sie interessant und nicht ganz trivial ist. Inwieweit ist es bei etwas , das wie eine Zufallsvariable aussieht , möglich, seinen Werten Wahrscheinlichkeiten zuzuweisen (oder vorhandene Wahrscheinlichkeiten so zu verschieben), dass seine Varianz einer vorgegebenen Zahl r entspricht ? Die Antwort ist, dass alle möglichen Werte r ≥ 0 bis zu einer durch den Bereich von X bestimmten Grenze zulässig sind .X r r≥0 X
Das potenzielle Interesse an einer solchen Analyse liegt in der Idee, ein Wahrscheinlichkeitsmaß zu ändern und dabei eine Zufallsvariable festzuhalten, um ein bestimmtes Ziel zu erreichen. Obwohl diese Anwendung einfach ist, zeigt sie einige der Ideen, die dem Girsanov-Theorem zugrunde liegen , ein Ergebnis, das für die mathematische Finanzierung von grundlegender Bedeutung ist.
Lassen Sie uns diese Frage rigoros und eindeutig wiederholen. Annehmen
ist eine messbare Funktion, die auf einem Messraum mit Sigma-Algebra S definiert ist . Wann ist es für eine gegebene reelle Zahl r > 0 möglich, ein Wahrscheinlichkeitsmaß P auf diesem Raum zu finden, für das Var ( X ) = r ist ?Ω S r>0 P Var(X)=r
Ich glaube, die Antwort ist, dass dies möglich ist, wenn .sup(X)−inf(X)>2r√ (Gleichheit kann gelten, wenn sowohl das Supremum als auch das Infimum erreicht werden: Das heißt, sie sind tatsächlich das Maximum und Minimum von) Wenn entwedersup(X)=∞oderinf(X)=-∞, setzt diese Bedingung keine Grenzenr, und dann sind alle nicht negativen Werte der Varianz möglich.X sup(X)=∞ inf(X)=−∞ r
Der Beweis ist durch Konstruktion. Beginnen wir mit einer einfachen Version, um uns um die Details zu kümmern, die Grundidee festzulegen und dann mit der eigentlichen Konstruktion fortzufahren.
Sei im Bild von X : Dies bedeutet, dass es ein ω x ∈ Ω gibt, für das X ( ω x ) = x ist . Definieren Sie die eingestellte Funktion P : S → [ 0 , 1 ] als Indikator für ω x : dh P ( A ) = 0, wenn ω x ∉ A und P ( A ) = 1, wenn ω xx X ωx∈Ω X(ωx)=x P:S→[0,1] ωx P(A)=0 ωx∉A P(A)=1 .ωx∈A
Da , erfüllt P offensichtlich die ersten beiden Wahrscheinlichkeitsaxiome . Es ist notwendig zu zeigen, dass es das dritte erfüllt; nämlich, dass es Sigma-Additiv ist. Dies ist jedoch fast genauso offensichtlich: Wenn { E i , i = 1 , 2 , … } eine endliche oder zählbar unendliche Menge sich gegenseitig ausschließender Ereignisse ist, enthält keines von beiden ω x - in diesem Fall P ( E i ) = 0 für alle iP(Ω)=1 P {Ei,i=1,2,…} ωx P(Ei)=0 i - oder genau einer von ihnen enthält , in welchem Fall P ( E j ) = 1 für ein bestimmtes j und ansonsten P ( E i ) = 0 für alle i ≠ j . In beiden Fällenωx P(Ej)=1 j P(Ei)=0 i≠j
weil beide Seiten entweder beide oder beide 1 sind .0 1
Da gesamte Wahrscheinlichkeit auf ω x konzentriert , ist die Verteilung von X auf x konzentriert und X muss eine Varianz von Null aufweisen.P ωx X x X
Sei zwei Werte im Bereich von X ; das heißt, X ( ω 1 ) = x 1 und X ( ω 2 ) = x 2 . Definieren Sie in ähnlicher Weise wie im vorherigen Schritt ein Maß P als gewichteten Durchschnitt der Indikatoren von ω 1 und ω 2 . Verwenden Sie nicht negative Gewichte 1 - p und p für p zu bestimmen. Nach wie vor finden wir, dass P.x1≤x2 X X(ω1)=x1 X(ω2)=x2 P ω1 ω2 1−p p p P - eine konvexe Kombination der in (1) diskutierten Indikatormaße zu sein - ist ein Wahrscheinlichkeitsmaß. Die Verteilung von in Bezug auf dieses Maß ist eine Bernoulli ( p ) -Verteilung, die um x 2 - x 1 skaliert und um - x 1 verschoben wurde . Da die Varianz einer Bernoulli ( p ) Verteilung p ( 1 - p ) , die Varianz von X sein muss ( x 2 - x 1 ) 2 P (X (p) x2−x1 −x1 (p) p(1−p) X .(x2−x1)2p(1−p)
Eine unmittelbare Folge von (2) ist, dass jedes für das x 1 ≤ x 2 im Bereich von X und 0 ≤ p < 1 existiert, für das existiertr x1≤x2 X 0≤p<1
kann die Varianz von . Da 0 ≤ p ( 1 - p ) ≤ 1 / 4 , bedeutet dies ,X 0≤p(1−p)≤1/4
quelle
quelle