Grenzen auf

21

Wenn f eine konvexe Funktion ist, dann besagt Jensens Ungleichung, dass f(E[x])E[f(x)] ist und mutatis mutandis, wenn f konkav ist. Natürlich kann man im schlimmsten Fall E[f(x)] in Bezug auf f(E[x]) für ein konvexes f , aber gibt es eine Grenze, die in diese Richtung geht, wenn f ist konvex, aber "nicht zu konvex"? Gibt es eine Standardgrenze, die Bedingungen für eine konvexe Funktion f liefertf(und möglicherweise auch die Verteilung, falls erforderlich), anhand derer Sie schließen können, dass E[f(x)]φ(f)f(E[x]) , wobeiφ(f) eine Funktion der Krümmung / des Konvexitätsgrades vonf ? Vielleicht so etwas wie ein Lipschitz-Zustand?

Ian
quelle
Abstimmung zum Abschluss als Off-Topic. math.stackexchange.com vielleicht?
Aryabhata
7
Ich denke, dass diese Frage offen bleiben sollte; Dies ist die Art von Ungleichheit, die viele Arbeitstheoretiker regelmäßig für nützlich halten würden.
Aaron Roth
10
Ich weiß, dass dies der reinen Mathematik näher kommt als die meisten der bisher gestellten Fragen, aber ich würde argumentieren, dass dies ein aktuelles Thema ist, da diese Art von Dingen häufig bei der Analyse von randomisierten Algorithmen auftaucht (was die Anwendung ist, in der ich mich befinde) Verstand). Ich denke, dass Mathematik, die in der Informatik häufig verwendet wird, als faires Spiel für Fragen betrachtet werden sollte.
Ian
6
Stimme ab, um offen zu bleiben. definitiv zum Thema
Suresh Venkat
1
Ich stimme auch dafür, offen zu bleiben.
Jeffs

Antworten:

21

EDIT: Originalversion hat einen absoluten Wert verfehlt. Es tut uns leid!!

Hallo Ian. Ich werde kurz zwei Beispielungleichungen skizzieren, eine mit einer Lipschitz-Bindung, die andere mit einer Bindung an die zweite Ableitung, und dann einige Schwierigkeiten in diesem Problem diskutieren. Obwohl ich überflüssig bin, stellt sich heraus, dass die Version der zweiten Ableitung recht gut ist, da ein Ansatz mit einer Ableitung erklärt, was mit mehr Ableitungen (über Taylor) passiert.

Erstens mit einer Lipschitz-Bindung: Überarbeiten Sie einfach die standardmäßige Jensen-Ungleichung. Der gleiche Trick gilt: Berechnen Sie die Taylor-Erweiterung zum erwarteten Wert.

Insbesondere sei das entsprechende Maß μ und setze m : = E ( x ) . Wenn f die Lipschitz-Konstante L hat , dann nach Taylors TheoremXμm: =E(x)fL

f(x)=f(m)+f(z)(x-m)f(m)+L|x-m|,

wobei (beachte , dass x m , und x > m sind möglich). Verwenden Sie dies und überarbeiten Sie den Jensen-Beweis (ich bin paranoid und habe überprüft, dass der Standard tatsächlich auf Wikipedia ist).z[m,x]xmx>m

E(f(X))=f(x)dμ(x)f(m)dμ(x)+L|xm|dμ(x)=f(E(X))+LE(|XE(X)|).

Nun nehmen wir . In diesem Fall,|f(x)|λ

f(x)=f(m)+f(m)(xm)+f(z)(xm)22f(m)+f(m)(xm)+λ(xm)22,

und so

E(f(X))f(m)+f(m)(E(X)m)+λE((Xm)2)2=f(E(X))+λVar(X)2.

Ich möchte kurz ein paar Dinge erwähnen. Entschuldigung, wenn sie offensichtlich sind.

Zum einen kann man nicht einfach "wlog " sagen, indem man die Verteilung verschiebt, weil man die Beziehung zwischen f und μ ändert .E(X)=0fμ

Als nächstes muss die Grenze in irgendeiner Weise von der Verteilung abhängen. Um dies zu sehen, stellen Sie sich vor, dass und f ( x ) = x 2 sind . Unabhängig vom Wert von σ erhalten Sie immer noch f ( E ( X ) ) = f ( 0 ) = 0 . Andererseits ist E ( f ( X ) ) = E ( XXGaussian(0,σ2)f(x)=x2σf(E(X))=f(0)=0 . Durch Ändern von σ können Sie also die Lücke zwischen den beiden Größen beliebig machen! Intuitiv wird mehr Masse vom Mittelwert weggedrückt und somit für jede streng konvexe Funktion E ( f ( X ) )E(f(X))=E(X2)=σ2σE(f(X)) zu.

Schließlich verstehe ich nicht, wie man eine Multiplikationsgrenze erhält, wie Sie vorschlagen. Alles, was ich in diesem Beitrag verwendet habe, ist Standard: Taylors Theorem und Derivatgrenzen sind in Statistikgrenzen Brot und Butter, und sie ergeben automatisch additive, nicht multiplikative Fehler.

Ich werde aber darüber nachdenken und etwas posten. Vage Intuition ist, dass es sehr anstrengende Bedingungen sowohl für die Funktion als auch für die Verteilung erfordert und dass der gebundene Zusatzstoff tatsächlich das Herzstück ist.

matus
quelle
Jedes Mal, wenn ich bearbeite, wird die Antwort gestoßen. Also werde ich darauf hinweisen: Die zweite Ableitungsgrenze ist eng für das Beispiel, das ich gegeben habe.
Matus
Ich denke, Sie haben Recht damit, dass additive Grenzen die bestmöglichen sind, ohne die Funktion wesentlich stärker zu beeinflussen.
Ian
Lieber Ian, ich habe ein bisschen mehr über dieses Problem nachgedacht, aber die Hauptschwierigkeit in meinem Kopf wird durch das Beispiel angedeutet, das ich gegeben habe, wobei , aber E ( f ( X ) ) > 0 ist . Sie können sowohl die Funktionsfamilie (beschränkt, begrenzte Ableitungen, integrierbar) als auch die Verteilung (glatte, begrenzte, begrenzte Momente) einschränken, und Sie haben immer noch diese Beispiele. Es reicht aus, eine symmetrische, nicht negative Funktion zu haben, die im Mittel der Verteilung gleich Null ist. Das heißt, alles hängt von den Einschränkungen in Ihrem genauen Problem ab. Im Allgemeinen halte ich die additive Natur für grundlegend.f(E(X))=0E(f(X))>0
Matus
@ Ian: Die Beweise der Ungleichungen von Chernoff und Azuma-Hoeffding verwenden Argumente, die an diese erinnern. Vielleicht möchten Sie diese zur Inspiration lesen. Siehe z. B. Mitzenmacher und Upfals Buch über Randomisierung in der Datenverarbeitung.
Warren Schudy
3

Betrachten Sie eine Verteilung, die sich auf zwei Werte konzentriert. sagen wir mit gleichen Wahrscheinlichkeiten von 1/2, dass es gleich 1 oder 3 ist, woher . Nehmen N > > 0 und ε > 0 . Betrachten Sie Funktionen f, für die f ( 1 ) = f ( 3 ) = N ϵ und f ( E [ x ] ) = f ( 2 ) = ϵ . IndemE[x]=2N>>0ϵ>0ff(1)=f(3)=Nϵf(E[x])=f(2)=ϵ ausreichend klein und f stetig zwischen diesen drei Punkten verbindend, können wir die Krümmung von f so klein wie gewünscht machen. Dannϵff

, dennochE[f(x)]=Nϵ

.N=Nϵ/ϵ=E[f(x)]/f(E[x])φ(f)

Dies zeigt, dass beliebig groß sein muss.φ(f)

whuber
quelle