Warum hat die Anzahl der stetigen einheitlichen Variablen auf (0,1), die erforderlich sind, damit ihre Summe eine überschreitet, einen Mittelwert für

14

Summieren wir einen Strom von Zufallsvariablen, X i i i d U ( 0 , 1 )XiiidU(0,1) ; Sei YY die Anzahl der Terme, die wir benötigen, damit die Summe eins überschreitet, dh YY ist die kleinste Zahl, so dass

X 1 + X 2 + + X Y > 1.

X1+X2++XY>1.

Warum ist der Mittelwert von YY gleich Eulers Konstante ee ?

E ( Y ) = e = 10 ! +11 ! +12 ! + 13 ! +

E(Y)=e=10!+11!+12!+13!+
Silberfisch
quelle
Ich poste dies im Geiste einer Selbststudienfrage, obwohl ich glaube, dass ich diese Frage vor über einem Jahrzehnt zum ersten Mal gesehen habe. Ich kann mich nicht erinnern, wie ich es damals beantwortet habe, obwohl ich mir sicher war, dass mir das nicht so einfiel, als ich diese Eigenschaft sah, die im Thread Approximate ee using Monte Carlo Simulation erwähnt wurde . Da ich den Verdacht habe, dass dies eine ziemlich häufige Übungsfrage ist, habe ich mich dafür entschieden, eine Skizze anstatt einer vollständigen Lösung vorzulegen, obwohl die Haupt- "Spoilerwarnung" wohl in die Frage selbst gehört!
Silverfish
Ich bin weiterhin sehr an alternativen Ansätzen interessiert. Ich weiß, dass dies eine Frage in Gnedenkos Wahrscheinlichkeitstheorie war (ursprünglich auf Russisch, aber weithin übersetzt), aber ich weiß nicht, welche Lösung dort erwartet oder woanders gestellt wurde.
Silverfish
1
Ich schrieb eine Simulationslösung in MATLAB Ihre Simplex - Methode. Ich wusste nichts über die Verbindung zu Simplexen, es ist so unerwartet.
Aksakal

Antworten:

14

Erste Beobachtung: YY hat eine angenehmere CDF als PMF

Die Wahrscheinlichkeitsmassenfunktion p Y ( n )pY(n) ist die Wahrscheinlichkeit, dass nn "gerade genug" ist, damit die Summe die Einheit überschreitet, dh X 1 + X 2 + X nX1+X2+Xn überschreitet eins, während X 1 + + X n - 1 diesX1++Xn1 tut nicht.

Die kumulative Verteilung F Y ( n ) = Pr ( Y n )FY(n)=Pr(Yn) erfordert lediglich nn ist "genug", dh Σ n i = 1 X i > 1ni=1Xi>1 ohne Einschränkungen auf wie viel von. Dies scheint ein viel einfacheres Ereignis zu sein, um mit der Wahrscheinlichkeit umzugehen.

Zweite Beobachtung: YY nimmt nicht negative ganzzahlige Werte so E ( Y )E(Y) kann geschrieben werden in Bezug auf die CDF

Offensichtlich YY kann nur Werte in { 0 , 1 , 2 , ... }{0,1,2,} , so dass wir seinen Mittelwert in Bezug auf die schreiben können komplementäre CDF , ˉ F YF¯Y .

E ( Y ) = n = 0 ˉ F Y ( n ) = n = 0 ( 1 - F Y ( n ) )

E (Y) = n = 0F¯Y.( n ) = n = 0( 1 - FY.( n ) )

Tatsächlich sind Pr ( Y = 0 ) und Pr ( Y = 1 ) beide Null, so dass die ersten beiden Terme E ( Y ) = 1 + 1 + sindPr(Y=0)Pr(Y=1) … sind .E(Y)=1+1+

Was die späteren Ausdrücke betrifft, wenn F Y ( n ) die Wahrscheinlichkeit ist, dass n i = 1 X i > 1 ist , von welchem ​​Ereignis ist ˉ F Y ( n ) die Wahrscheinlichkeit?FY(n)ni = 1Xich> 1F¯Y.( n )

Dritte Beobachtung: Das (Hyper-) Volumen eines n- Implex ist 1nn !1n!

Der n- Implex, den ich im Auge habe, besetzt das Volumen unter einer Standardeinheit ( n - 1 ) -Implex in der vollpositiven Orthante von R n : Es ist die konvexe Hülle von ( n + 1 ) Eckpunkten, insbesondere der Ursprung plus die Eckpunkte der Einheit ( n - 1 ) -simplex bei ( 1 , 0 , 0 , ) , ( 0 , 1 , ) usw.n(n1)Rn(n+1)(n1)(1,0,0,) 0 , (0,1,0,)

volumes of 2-simplex and 3-simplex

Zum Beispiel hat der 2-Simplex oben mit x 1 + x 21 die Fläche 1x1+x212 und der 3-Simplex mitx1+x2+x31hat Volumen112x1+x2+x31616 .

Für einen Beweis dafür , dass Erlös durch direkte ein integrale für die Wahrscheinlichkeit des Ereignisses beschrieben durch Auswertung ˉ F Y ( n ) , und Verbindungen zu zwei weiteren Argumenten findet diesen Thread Math SE . Der verwandte Thread könnte auch von Interesse sein: Gibt es eine Beziehung zwischen e und der Summe der n- Implexe-Volumina?F¯Y(n)en

Silverfish
quelle
1
This is an interesting geometric approach, and easy to solve this way. Beautiful. Here's the equation for a volume of a simplex. I don't think there could be a more elegant solution, frankly
Aksakal
1
+1 You can also obtain the full distribution of YY from any of the approaches in my post at stats.stackexchange.com/questions/41467/….
whuber
If I stumbled on this solution, there's no way they could force me do it other way in a school :)
Aksakal
11

Fix n1n1. Let Ui=X1+X2++Ximod1

Ui=X1+X2++Ximod1
be the fractional parts of the partial sums for i=1,2,,ni=1,2,,n. The independent uniformity of X1X1 and Xi+1Xi+1 guarantee that Ui+1Ui+1 is just as likely to exceed UiUi as it is to be less than it. This implies that all n!n! orderings of the sequence (Ui)(Ui) are equally likely.

Given the sequence U1,U2,,UnU1,U2,,Un, we can recover the sequence X1,X2,,XnX1,X2,,Xn. To see how, notice that

  • U1=X1U1=X1 because both are between 00 and 11.

  • If Ui+1UiUi+1Ui, then Xi+1=Ui+1UiXi+1=Ui+1Ui.

  • Otherwise, Ui+Xi+1>1Ui+Xi+1>1, whence Xi+1=Ui+1Ui+1Xi+1=Ui+1Ui+1.

There is exactly one sequence in which the UiUi are already in increasing order, in which case 1>Un=X1+X2++Xn1>Un=X1+X2++Xn. Being one of n!n! equally likely sequences, this has a chance 1/n!1/n! of occurring. In all the other sequences at least one step from UiUi to Ui+1Ui+1 is out of order. This implies the sum of the XiXi had to equal or exceed 11. Thus we see that

Pr(Y>n)=Pr(X1+X2++Xn1)=Pr(X1+X2++Xn<1)=1n!.

Pr(Y>n)=Pr(X1+X2++Xn1)=Pr(X1+X2++Xn<1)=1n!.

This yields the probabilities for the entire distribution of YY, since for integral n1n1

Pr(Y=n)=Pr(Y>n1)Pr(Y>n)=1(n1)!1n!=n1n!.

Pr(Y=n)=Pr(Y>n1)Pr(Y>n)=1(n1)!1n!=n1n!.

Moreover,

E(Y)=n=0Pr(Y>n)=n=01n!=e,

E(Y)=n=0Pr(Y>n)=n=01n!=e,

QED.

whuber
quelle
I have read it a couple of times, and I almost get it... I posted a couple of questions in the Mathematics SE as a result of the ee constant computer simulation. I don't know if you saw them. One of them came back before your kind explanation on Tenfold about the ceiling function of the 1/U(0,1)1/U(0,1) and the Taylor series. The second one was exactly about this topic, never got a response, until now...
Antoni Parellada
here and here.
Antoni Parellada
And could you add the proof with the uniform spacings as well?
Xi'an
@Xi'an Could you indicate more specifically what you mean by "uniform spacings" in this context?
whuber
I am referring to your Poisson process simulation via the uniform spacing, in the thread Approximate e using Monte Carlo Simulation for which I cannot get a full derivation.
Xi'an
6

In Sheldon Ross' A First Course in Probability there is an easy to follow proof:

Modifying a bit the notation in the OP, UiiidU(0,1)UiiidU(0,1) and YY the minimum number of terms for U1+U2++UY>1U1+U2++UY>1, or expressed differently:

Y=min{n:ni=1Ui>1}

Y=min{n:i=1nUi>1}

If instead we looked for:

Y(u)=min{n:ni=1Ui>u}

Y(u)=min{n:i=1nUi>u}
for u[0,1]u[0,1], we define the f(u)=E[Y(u)]f(u)=E[Y(u)], expressing the expectation for the number of realizations of uniform draws that will exceed uu when added.

We can apply the following general properties for continuous variables:

E[X]=E[E[X|Y]]=E[X|Y=y]fY(y)dyE[X]=E[E[X|Y]]=E[X|Y=y]fY(y)dy

to express f(u)f(u) conditionally on the outcome of the first uniform, and getting a manageable equation thanks to the pdf of XU(0,1)XU(0,1), fY(y)=1.fY(y)=1. This would be it:

f(u)=10E[Y(u)|U1=x]dx

f(u)=10E[Y(u)|U1=x]dx(1)

If the U1=xU1=x we are conditioning on is greater than uu, i.e. x>ux>u, E[Y(u)|U1=x]=1.E[Y(u)|U1=x]=1. If, on the other hand, x<ux<u, E[Y(u)|U1=x]=1+f(ux)E[Y(u)|U1=x]=1+f(ux), because we already have drawn 11 uniform random, and we still have the difference between xx and uu to cover. Going back to equation (1):

f(u)=1+x0f(ux)dx

f(u)=1+x0f(ux)dx
, and with substituting w=uxw=ux we would have f(u)=1+x0f(w)dwf(u)=1+x0f(w)dw.

If we differentiate both sides of this equation, we can see that:

f(u)=f(u)f(u)f(u)=1

f(u)=f(u)f(u)f(u)=1

with one last integration we get:

log[f(u)]=u+cf(u)=keu

log[f(u)]=u+cf(u)=keu

We know that the expectation that drawing a sample from the uniform distribution and surpassing 00 is 11, or f(0)=1f(0)=1. Hence, k=1k=1, and f(u)=euf(u)=eu. Therefore f(1)=e.f(1)=e.

Antoni Parellada
quelle
I do like the manner in which this generalises the result.
Silverfish