Wie konstruiere ich ein Beispiel für eine Wahrscheinlichkeitsverteilung, für die E ( 1X )=1E ( X )E(1X)=1E(X) gilt unter der Annahme, dassP(X≠0)=1P(X≠0)=1?
Die Ungleichung, die sich aus Jensens Ungleichung für ein positiv bewertetes Wohnmobil ergibt XX ergibt, ist wie E ( 1X )≥1E ( X )E(1X)≥1E(X) (die umgekehrte Ungleichung, wennX < 0 istX<0 ). Dies liegt daran, dass die Abbildung x x 1 istxx↦1x ist fürx>0x>0konvexund fürx<0x<0konkav. Nach der Gleichheitsbedingung in Jensens Ungleichung muss die Verteilung vermutlich entartet sein, damit die erforderliche Gleichheit erhalten bleibt. Ein trivialer Falldem die Gleichheit ist natürlich giltwennX=1X=1ae Hierein Beispieldas ich in einem Problem Buch gefunden: eine diskrete Zufallsvariable BetrachtenXXso dassP(X=-1)=19 ,P(X=12 )=P(X=2)=49P(X=−1)=19,P(X=12)=P(X=2)=49 . Es ist dann leicht zu verifizieren, dassE(1X )=1E ( X ) =1E(1X)=1E(X)=1.
Dieses Beispiel zeigt, dass XX nicht positiv (oder negativ) sein muss, damit die Gleichheit im Titel erhalten bleibt. Auch hier ist die Verteilung nicht entartet.
Wie konstruiere ich ein Beispiel, wie ich es möglicherweise im Buch gefunden habe? Gibt es eine Motivation?
Antworten:
Konstruieren wir alle möglichen Beispiele für Zufallsvariablen X, für die E [ X ] E [ 1 / X ] = 1 ist . Dann können wir unter ihnen einigen Heuristiken folgen, um ein möglichst einfaches Beispiel zu erhalten. Diese Heuristiken bestehen darin, allen Ausdrücken, die aus einer vorläufigen Analyse herausfallen, möglichst einfache Werte zu geben. Dies stellt sich als Lehrbuchbeispiel heraus.X E[X]E[1/X]=1
Voruntersuchung
Dies erfordert nur ein wenig Analyse basierend auf Definitionen. Die Lösung ist nur von zweitrangigem Interesse: Das Hauptziel besteht darin, Erkenntnisse zu entwickeln, die uns helfen, die Ergebnisse intuitiv zu verstehen.
Zunächst beobachtet , dass Jensen-Ungleichung (oder das Cauchy-Schwarz Inequality) bedeutet , dass für eine positive Zufallsvariable X , E [ X ] E [ 1 / X ] ≥ 1 , mit Gleichheit Halt , wenn und nur wenn X ist "entartet": Das ist , X ist fast sicher konstant. Wenn X eine negative Zufallsvariable ist, ist - X positiv und das vorhergehende Ergebnis gilt mit umgekehrtem Ungleichheitszeichen. Folglich ist jedes Beispiel, in dem E [ 1 / X ] = 1 /X E[X]E[1/X]≥1 X X X −X E[ X ] muss eine positive Wahrscheinlichkeit haben, negativ zu sein, und eine positive Wahrscheinlichkeit, positiv zu sein.E[1/X]=1/E[X]
Die Einsicht hier ist, dass jedes X mit E [ X ] E [ 1 / X ] = 1 irgendwie die Ungleichung von seinem positiven Teil gegen die Ungleichung in der anderen Richtung von seinem negativen Teil "balancieren" muss. Dies wird im weiteren Verlauf klarer.X E[X]E[1/X]=1
Betrachten Sie eine beliebige Zufallsvariable X ungleich Null . Ein erster Schritt bei der Formulierung einer Definition der Erwartung (zumindest wenn dies in voller Allgemeinheit unter Verwendung der Maßtheorie erfolgt) ist die Zerlegung von X in seine positiven und negativen Teile, die beide positive Zufallsvariablen sind:X X
Y = positiver Teil ( X ) = max ( 0 , X ) ; Z = negativer Teil ( X ) = - min ( 0 , X ) .
Stellen wir uns X als eine Mischung aus Y mit Gewicht p und - Z mit Gewicht 1 - p vor, wobei p = Pr ( X > 0 ) , 1 - p = Pr ( X < 0 ) . Offensichtlich 0 < p < 1. Dies ermöglicht es uns, Erwartungen von X und 1 / X zu schreibenX Y p −Z 1−p
Um die bevorstehende Algebra ein wenig Notiz zu vereinfachen , dass einheitlich rescaling X durch eine Zahl σ nicht ändert E [ X ] E [ 1 / X ] --Aber tut es mehrfach E [ Y ] und E [ Z ] jeweils von σ . Für positive σ ergibt dies einfach die Maßeinheiten der Auswahl X . Eine negative σ schaltet die Rollen von Y und Z . Das Vorzeichen von σ wählenX σ E[X]E[1/X] E[Y] E[Z] σ σ X σ Y Z σ in geeigneter Weise können wir daher annehmen, dass E [ Z ] = 1 und E [ Y ] ≥ E [ Z ] .
Notation
Das war es für vorläufige Vereinfachungen. Um eine schöne Notation zu erstellen, lassen Sie uns deshalb schreiben
μ = E [ Y ] ; ν = E [ 1 / Y ] ; λ = E [ 1 / Z ]
Für die drei Erwartungen können wir nicht kontrollieren. Alle drei Größen sind positiv. Jensens Ungleichung behauptet
μ ν ≥ 1 und λ ≥ 1.
Das Gesetz der Gesamtwahrscheinlichkeit drückt die Erwartungen von X und 1 / X in Bezug auf die Mengen aus, die wir benannt haben:X 1/X
E [ X ] = E [ X ≤ X > 0 ] Pr ( X > 0 ) + E [ X ≤ X < 0 ] Pr ( X < 0 ) = μ p - ( 1 - p ) = ( μ + 1 ) p - 1
und, da 1 / X das gleiche Vorzeichen wie X hat ,1/X X
E [ 1X ]=E[1X ∣X>0]Pr(X>0)+E[1X |X<0]Pr(X<0)=νp-λ(1-p)=(ν+λ)p-λ.
Das Gleichsetzen des Produkts dieser beiden Ausdrücke mit 1 liefert eine wesentliche Beziehung zwischen den Variablen:1
1 = E [ X ] E [ 1X ]=((μ+1)p-1)((ν+λ)p-λ).
Neuformulierung des Problems
Suppose the parts of XX --YY and ZZ --are any positive random variables (degenerate or not). That determines μ,ν,μ,ν, and λλ . When can we find pp , with 0<p<10<p<1 , for which (∗)(∗) holds?
This clearly articulates the "balancing" insight previously stated only vaguely: we are going to hold YY and ZZ fixed and hope to find a value of pp that appropriately balances their relative contributions to XX . Although it's not immediately evident that such a pp need exist, what is clear is that it depends only on the moments E[Y]E[Y] , E[1/Y]E[1/Y] , E[Z]E[Z] , and E[1/Z]E[1/Z] . The problem thereby is reduced to relatively simple algebra--all the analysis of random variables has been completed.
Solution
This algebraic problem isn't too hard to solve, because (∗)(∗) is at worst a quadratic equation for pp and the governing inequalities (1)(1) and (2)(2) are relatively simple. Indeed, (∗)(∗) tells us the product of its roots p1p1 and p2p2 is
p1p2=(λ−1)1(μ+1)(ν+λ)≥0
and the sum is
p1+p2=(2λ+λμ+ν)1(μ+1)(ν+λ)>0.
Therefore both roots must be positive. Furthermore, their average is less than 11 , because
1−(p1+p2)2=λμ+ν+2μν2(μ+1)(ν+λ)>0.
(By doing a bit of algebra, it's not hard to show the larger of the two roots does not exceed 11 , either.)
A Theorem
Here is what we have found:
That gives us a rich set of examples indeed!
Constructing the Simplest Possible Example
Having characterized all examples, let's proceed to construct one that is as simple as possible.
For the negative part ZZ , let's choose a degenerate variable--the very simplest kind of random variable. It will be scaled to make its value 11 , whence λ=1λ=1 . The solution of (∗)(∗) includes p1=0p1=0 , reducing it to an easily solved linear equation: the only positive root is
p=11+μ+11+ν.
For the positive part YY , we obtain nothing useful if YY is degenerate, so let's give it some probability at just two distinct positive values a<ba<b , say Pr(X=b)=qPr(X=b)=q . In this case the definition of expectation gives
μ=E[Y]=(1−q)a+qb; ν=E[1/Y]=(1−q)/a+q/b.
To make this even simpler, let's make YY and 1/Y1/Y identical: this forces q=1−q=1/2q=1−q=1/2 and a=1/ba=1/b . Now
μ=ν=b+1/b2.
The solution (3)(3) simplifies to
p=21+μ=42+b+1/b.
How can we make this involve simple numbers? Since a<ba<b and ab=1ab=1 , necessarily b>1b>1 . Let's choose the simplest number greater than 11 for bb ; namely, b=2b=2 . The foregoing formula yields p=4/(2+2+1/2)=8/9p=4/(2+2+1/2)=8/9 and our candidate for the simplest possible example therefore is
Pr(X=2)=Pr(X=b)=Pr(Y=b)p=qp=1289=49;Pr(X=1/2)=Pr(X=a)=Pr(Y=a)p=qp=⋯=49;Pr(X=−1)=Pr(Z=1)(1−p)=1−p=19.
This is the very example offered in the textbook.
quelle
As you've mentioned, if XX is positive then E(1/X)=1/E(X)E(1/X)=1/E(X) occurs only when XX is almost surely constant. Otherwise you need XX to take both negative and positive values.
To construct such an example, first go as simple as possible. Assume XX takes two values, aa and bb , with probabilities pp and 1−p1−p respectively. Then
E(X)=ap+b(1−p)
Next try: a distribution with three possible values. Here there are many more choices. The example you cited tries an XX such that 1/X1/X has the same distribution. If we know XX takes three values, it must be that one of the values is either 11 or −1, and the other two must be a and 1/a for some choice of a. For definiteness let's try P(X=a)=P(X=1/a)=p, and P(X=−1)=1−2p. Then
E(1/X)=E(X)=(a+1a)p−(1−2p)=(2+a+1a)p−1.
quelle