Erwartung des Maximums von iid Gumbel-Variablen

12

Ich lese in Wirtschaftsmagazinen immer wieder über ein bestimmtes Ergebnis, das in zufälligen Gebrauchsmustern verwendet wird. Eine Version des Ergebnisses ist: wenn ϵiiid, Gumbel ( μ,1),i , dann gilt :

E[maxi(δi+ϵi)]=μ+γ+ln(iexp{δi}),

wobei γ0.52277 ist der Euler-Mascheroni Konstante. Ich habe mit R überprüft, ob dies sinnvoll ist. Die CDF für die Gumbel (μ,1) -Verteilung ist:

G(ϵi)=exp(exp((ϵiμ)))

Ich versuche einen Beweis dafür zu finden und hatte keinen Erfolg. Ich habe versucht, es selbst zu beweisen, aber ich komme nicht über einen bestimmten Schritt hinaus.

Kann mir jemand einen Beweis dafür geben? Wenn nicht, kann ich meinen versuchten Beweis vielleicht dahin senden, wo ich stecke.

Jason
quelle

Antworten:

7

Ich schätze die in Ihrer Antwort gezeigte Arbeit: Vielen Dank für diesen Beitrag. Der Zweck dieses Beitrags ist eine einfachere Demonstration. Der Wert der Einfachheit ist Offenbarung: Wir können leicht die gesamte Verteilung des Maximums erhalten, nicht nur seine Erwartung.


Ignoriere indem du es in δ i aufnimmst und annimmst, dass alle ϵ i eine Gumbel ( 0 , 1 ) -Verteilung haben. (Das heißt, ersetzen Sie jedes ϵ i durch ϵ i - μ und ändern Sie δ i in δ i + μ .) Dies ändert die Zufallsvariable nichtμδiϵi(0,1)ϵichϵich-μδichδich+μ

X=maxi(δi+ϵi)=maxi((δi+μ)+(ϵiμ)).

Die Unabhängigkeit von impliziert für alle reellen x, dass Pr ( X x ) das Produkt der einzelnen Chancen Pr ( δ i + ϵ ix ) ist . Logbuch führen und grundlegende Eigenschaften von Exponentialen anwendenϵixPr(Xx)Pr(δi+ϵix)

logPr(Xx)=logiPr(δi+ϵix)=ilogPr(ϵixδi)=ieδiex=exp(x+logieδi).

Dies ist der Logarithmus der CDF einer Gumbel-Verteilung mit dem Ortsparameter Das ist,λ=logieδi.

hat eine Gumbel-Verteilung ( log i e δ i , 1 ) .X(logieδi,1)

Dies sind viel mehr Informationen als angefordert. Der Mittelwert einer solchen Verteilung ist was zur Folge hatγ+λ,

E[X]=γ+logieδi,

QED.

whuber
quelle
12

Es stellt sich heraus, dass ein Econometrica- Artikel von Kenneth Small und Harvey Rosen dies 1981 zeigte, jedoch in einem sehr speziellen Kontext, so dass das Ergebnis viel Graben erfordert, ganz zu schweigen von einer Ausbildung in Wirtschaftswissenschaften. Ich beschloss, es auf eine Weise zu beweisen, die ich für zugänglicher halte.

Beweis : Sei die Anzahl der Alternativen. In Abhängigkeit von den Werten des Vektors ε = { ε 1 , . . . , ϵ J } nimmt die Funktion max i ( δ i + ϵ i ) unterschiedliche Werte an. Konzentrieren Sie sich zunächst auf die Werte von ϵ, so dass max i ( δ i + ϵ i ) = δ 1 + ϵ 1 ist . Das heißt, wir werden δ integrierenJϵ={ϵ1,...,ϵJ}maxi(δi+ϵi)ϵmaxi(δi+ϵi)=δ1+ϵ1δ1+ϵ1 über die Menge :M1{ϵ:δ1+ϵ1>δj+ϵj,j1}

EϵM1[maxi(δi+ϵi)]=(δ1+ϵ1)f(ϵ1)[δ1+ϵ1δ2...δ1+ϵ1δJf(ϵ2)...f(ϵJ)dϵ2...dϵJ]dϵ1=(δ1+ϵ1)f(ϵ1)(δ1+ϵ1δ2f(ϵ2)dϵ2)...(δ1+ϵ1δJf(ϵJ)dϵJ)dϵ1=(δ1+ϵ1)f(ϵ1)F(δ1+ϵ1δ2)...F(δ1+ϵ1δJ)dϵ1

The term above is the first of J such terms in E[maxi(δi+ϵi)]. Specifically,

E[maxi(δi+ϵi)]=iEϵMi[maxi(δi+ϵi)].

Now we apply the functional form of the Gumbel distribution. This gives

EϵMi[maxi(δi+ϵi)]=(δi+ϵi)eμϵieeμϵijieeμϵi+δjδidϵi=(δi+ϵi)eμϵijeeμϵi+δjδidϵi=(δi+ϵi)eμϵiexp{jeμϵi+δjδi}dϵi=(δi+ϵi)eμϵiexp{eμϵijeδjδi}dϵi

where the second step comes from collecting one of the exponentiated terms into the product, along with the fact that δjδi=0 if i=j.

Now we define Dijeδjδi, and make the substitution x=Dieμϵi, so that dx=DieμϵidϵidxDi=eμϵidϵi and ϵi=μlog(xDi). Note that as ϵi approaches infinity, x approaches 0, and as ϵi approaches negative infinity, x approaches infinity.

EϵMi[maxi(δi+ϵi)]=0(δi+μlog[xDi])(1Di)exp{x}dx=1Di0(δi+μlog[xDi])exdx=δi+μDi0exdx1Di0log[x]exdx+log[Di]Di0exdx

The Gamma Function is defined as Γ(t)=0xt1exdx. For values of t which are positive integers, this is equivalent to Γ(t)=(t1)!, so Γ(1)=0!=1. In addition, it is known that the Euler–Mascheroni constant, γ0.57722 satisfies

γ=0log[x]exdx.

Applying these facts gives

EϵMi[maxi(δi+ϵi)]=δi+μ+γ+log[Di]Di

Then we sum over i to get

E[maxi(δi+ϵi)]=iδi+μ+γ+log[Di]Di

Recall that Di=jeδjδi=jeδjeδi. Notice that the familiar logit choice probabilities Pi=eδijδj are inverses of the Di's, or in other words Pi=1/Di. Also note that iPi=1. Then we have

E[maxi(δi+ϵi)]=iPi(δi+μ+γ+log[Di])=(μ+γ)iPi+iPiδi+iPilog[Di]=μ+γ+iPiδi+iPilog[jeδjeδi]=μ+γ+iPiδi+iPilog[jeδj]iPilog[eδi]=μ+γ+iPiδi+log[jeδj]iPiiPiδi=μ+γ+log[jexp{δj}].
Q.E.D.
Jason
quelle
3
I linked what I believe is the article you're referring to, without actually looking through it to be sure; please correct if wrong.
Dougal
@Jason Do you know how to prove what this is when the max is conditional on one being the max? See question here that is unsolved: stats.stackexchange.com/questions/260847/…
wolfsatthedoor