Meine Frage betrifft den Versuch, eine weit verbreitete Methode zu rechtfertigen, nämlich den erwarteten Wert der Taylor-Reihe zu nehmen. Angenommen, wir haben eine Zufallsvariable mit positivem Mittelwert und Varianz . Zusätzlich haben wir eine Funktion, zum Beispiel .
Wenn wir die Taylor-Erweiterung von um den Mittelwert ausführen, erhalten wir wobei wie üblich st.
Wenn wir eine Erwartung annehmen, erhalten wir eine ungefähre Gleichung, die die Leute normalerweise als etwas Selbstverständliches bezeichnen (siehe das Zeichen in der ersten Gleichung hier)E log X ≈ log μ - 1 :
FRAGE : Ich bin daran interessiert, zu beweisen, dass der erwartete Wert des Restterms tatsächlich vernachlässigbar ist, dh (oder mit anderen Worten ).
Was ich versucht habe : Unter der Annahme, dass (was wiederum in ), habe ich versucht, das Integral in zwei Teile aufzuteilen, wobei mit einigen -vicinity :
Der erste kann aufgrund der Tatsache begrenzt werden, dass und somit nicht stört. Aber mit dem zweiten haben wir zwei übereinstimmende Tatsachen: einerseits (als ). Andererseits wissen wir nicht, was wir mit .
Eine andere Möglichkeit könnte sein, das Lemma der Fatou zu verwenden, aber ich kann nicht herausfinden, wie.
Würde mich über jede Hilfe oder jeden Hinweis freuen. Mir ist klar, dass dies eine sehr technische Frage ist, aber ich muss sie durchgehen, um dieser "Taylor-Erwartungsmethode" zu vertrauen. Vielen Dank!
PS ich ausgecheckt hier , scheint aber es ist ein bisschen von anderen Sachen.
Antworten:
Sie sind mit Recht skeptisch gegenüber diesem Ansatz. Die Taylor-Reihenmethode funktioniert im Allgemeinen nicht, obwohl die Heuristik einen Kern der Wahrheit enthält. Um die technische Diskussion unten zusammenzufassen,
Wie aus Alecos 'Antwort hervorgeht, sollte die Taylor-Reihen-Methode abgeschafft werden, wenn Ihre Daten möglicherweise einen hohen Umfang haben. (Finanzfachleute, ich sehe dich an.)
Wie Elvis bemerkte, besteht das Hauptproblem darin, dass die Varianz keine höheren Momente kontrolliert . Um zu sehen, warum, vereinfachen wir Ihre Frage so weit wie möglich, um zur Hauptidee zu gelangen.
Da es Zufallsvariablen mit endlichen zweiten Momenten und unendlichen dritten Momenten gibt, lautet die Antwort nachdrücklich nein . Daher schlägt die Taylorreihenmethode im Allgemeinen auch für Polynome 3. Grades fehl . Das Durchlaufen dieses Arguments zeigt, dass Sie nicht erwarten können, dass die Taylor-Reihenmethode auch für Polynome genaue Ergebnisse liefert, es sei denn, alle Momente Ihrer Zufallsvariablen sind gut gesteuert.
Was sollen wir dann tun? Sicher funktioniert die Methode für begrenzte Zufallsvariablen, deren Unterstützung zu einem Punkt konvergiert, aber diese Klasse ist viel zu klein, um interessant zu sein. Nehmen wir stattdessen an, dass die Sequenz aus einer hoch konzentrierten Familie stammt, die (sagen wir) erfüllt.Xn
für jedes und einige . Solche Zufallsvariablen sind überraschend häufig. Zum Beispiel, wenn das empirische Mittel istC > 0 X nt>0 C>0 Xn
von netten Zufallsvariablen (z. B. iid und bounded) implizieren verschiedene Konzentrationsungleichungen , dass (1) erfüllt. Ein Standardargument (siehe S. 10 hier ) begrenzt die ten Momente für solche Zufallsvariablen:X n pYi Xn p
Daher können wir für jede "ausreichend schöne" analytische Funktion (siehe unten) den Fehler an die terminale Taylorreihen-Approximation unter Verwendung der Dreiecksungleichung bindenE m mf Em m
wenn . Da Stirlings Näherung ergibt erfüllt der Fehler der abgeschnittenen Taylorreihen>C/2 p!≈pp−1/2
Wenn also stark konzentriert ist und ausreichend schön ist, ist die Taylorreihennäherung tatsächlich genau. Die in (2) auftauchende Ungleichung impliziert, dass , so dass insbesondere erfordert unsere Bedingung , daß ist gesamten . Dies ist sinnvoll, da (1) keine Begrenzungsannahmen auferlegt .Xn f f(p)(μ)/p!=O(p−p/2) f Xn
Mal sehen, was schief gehen kann, wenn eine Singularität hat (nach Whubers Kommentar). Angenommen, wir wählen . Wenn wir aus der -Verteilung nehmen, die zwischen null und zwei abgeschnitten ist, dann ist ausreichend konzentriert, aber für jedes . Mit anderen Worten, wir haben eine hoch konzentrierte, begrenzte Zufallsvariable , und die Taylor-Reihenmethode schlägt immer noch fehl, wenn die Funktion nur eine Singularität aufweist.f f(x)=1/x Xn Normal(1,1/n) Xn E[f(Xn)]=∞ n
Ein paar Worte zur Strenge. Ich finde es angenehmer, die in (2) auftauchende Bedingung als abgeleitet darzustellen, als ein Deus ex machina , das in einem strengen Satz- / Beweisformat erforderlich ist. Um das Argument vollständig zu verschärfen, ist zunächst zu beachten, dass die rechte Seite in (2) dies impliziert
durch die Wachstumsrate von subgaußschen Momenten von oben. Somit liefert der Satz von Fubini
Der Rest des Beweises läuft wie oben ab.
quelle
Obwohl meine Antwort nicht an das Niveau der mathematischen Raffinesse der anderen Antworten heranreicht, habe ich mich dazu entschlossen, sie zu posten, weil ich glaube, dass sie etwas beitragen kann - obwohl das Ergebnis, wie sie sagen, "negativ" sein wird.
In einem hellen Ton würde ich sagen, dass das OP "risikoavers" ist (wie die meisten Menschen, ebenso wie die Wissenschaft selbst), weil das OP eine ausreichende Bedingung für die Taylor-Reihen-Expansionsnäherung 2. Ordnung erfordert, um "zu sein" akzeptabel". Aber es ist keine notwendige Bedingung.
Erstens ist eine notwendige, aber nicht ausreichende Voraussetzung dafür, dass der erwartete Wert des Rests von geringerer Ordnung ist als die Varianz des Rv, wie es das OP erfordert, dass die Reihe überhaupt konvergiert. Sollen wir nur von Konvergenz ausgehen? Nein.
Der allgemeine Ausdruck, den wir untersuchen, ist
Wie Loistl (1976) unter Bezugnahme auf Gemignanis Buch "Calculus and Statistics" (1978, S. 170) feststellt, ist eine Bedingung für die Konvergenz der unendlichen Summe (eine Anwendung des Verhältnis-Tests für die Konvergenz)
... wobei der Mittelwert des rv ist Auch wenn dies eine ausreichende Bedingung ist (der Ratio-Test ist nicht schlüssig, wenn die obige Beziehung mit der Gleichheit übereinstimmt), wird die Reihe auseinander gehen, wenn die Ungleichung in die andere Richtung gilt.μ
Loistl untersuchte drei spezifische Funktionsformen für , das Exponential, die Potenz und den Logarithmus (seine Arbeit befasst sich mit Expected Utility und Portfolio Choice, also testete er die Standardfunktionsformen, die zur Darstellung einer konkaven Utility-Funktion verwendet werden). Für diese funktionellen Formen stellte er fest, dass nur für die exponentielle funktionelle Form keine Beschränkungen für auferlegt wurden. Im Gegenteil, für die Potenz und für den logarithmischen Fall (wo wir bereits ) finden wir, dass die Gültigkeit der Ungleichung äquivalent zug() y−μ 0<y [2]
Dies bedeutet, dass, wenn unsere Variable außerhalb dieses Bereichs variiert, die Taylor-Expansion, deren Expansionszentrum der Mittelwert der Variablen ist, divergiert.
Also: Für einige funktionale Formen entspricht der Wert einer Funktion an einem Punkt ihrer Domäne ihrer unendlichen Taylor-Expansion, unabhängig davon, wie weit dieser Punkt vom Expansionszentrum entfernt ist. Für andere funktionale Formen (einschließlich Logarithmus) sollte der interessierende Punkt etwas "nahe" am gewählten Expansionszentrum liegen. Wenn wir ein rv haben, bedeutet dies eine Einschränkung der theoretischen Unterstützung der Variablen (oder eine Untersuchung ihres empirisch beobachteten Bereichs).
Anhand numerischer Beispiele zeigte Loitl auch, dass eine Vergrößerung der Expansionsreihenfolge vor dem Abschneiden die Genauigkeit der Approximation verschlechtern kann . Wir müssen feststellen, dass Zeitreihen beobachteter Variablen im Finanzsektor empirisch eine Variabilität aufweisen, die größer ist als die von der Ungleichung geforderte. Loitl setzte sich daher dafür ein, dass die Taylor-Näherungsmethode in Bezug auf die Portfolio-Auswahl-Theorie vollständig abgeschafft werden sollte.
Der Rückprall erfolgte 18 Jahre später von Hlawitschka (1994) . Der wertvolle Einblick und das wertvolle Ergebnis hier war, und ich zitiere
Zum Beispiel zeigte Hlawitschka, dass die Approximation 2. Ordnung "erfolgreich" war, unabhängig davon, ob die Taylor-Reihe konvergierte oder nicht , aber er bestätigte auch das Ergebnis von Lotl, dass eine Erhöhung der Approximationsordnung die Approximation möglicherweise verschlechtern könnte. Für diesen Erfolg gibt es jedoch ein Kriterium: In Portfolio Choice wird Expected Utility zur Einstufung von Wertpapieren und anderen Finanzprodukten verwendet. Es ist ein Ordnungsmaß , kein Kardinal. Was Hlawitschka fand, ist, dass die Annäherung 2. Ordnung die Rangfolge verschiedener Wertpapiere beibehielt, verglichen mit der Rangfolge, die sich aus dem exakten Wert von ergibt , und nichtE(g(Y) dass es immer quantitative Ergebnisse gab, die diesem exakten Wert hinreichend nahe kamen (siehe seine Tabelle A1 auf S. 718).
Wo bleibt uns das also? In der Schwebe würde ich sagen. Sowohl in der Theorie als auch in der Empirie hängt die Akzeptanz der Taylor-Näherung 2. Ordnung entscheidend von vielen verschiedenen Aspekten des untersuchten Phänomens und der angewandten wissenschaftlichen Methodik ab - sie hängt von den theoretischen Annahmen und den verwendeten funktionalen Formen ab. zur beobachteten Variabilität der Reihe ...
Aber lassen Sie uns dies positiv beenden: Heutzutage ersetzt Computerleistung viele Dinge. So können wir die Gültigkeit der Approximation 2. Ordnung für einen weiten Wertebereich der Variablen kostengünstig simulieren und testen, unabhängig davon, ob wir an einem theoretischen oder einem empirischen Problem arbeiten.
quelle
Keine wirkliche Antwort, sondern ein Beispiel, das zeigt, dass die Dinge nicht so schön sind und dass zusätzliche Hypothesen erforderlich sind, um dieses Ergebnis zu verwirklichen.
Definiere als eine Mischung zwischen einem einheitlichen und einem normalen , wobei die einheitliche Komponente mit der Wahrscheinlichkeit und die Normale mit der Wahrscheinlichkeit . Sie haben und seine Varianz konvergiert gegen wenn gegen unendlich geht, da wenn ich mich nicht irre.Xn U([−1n;1n]) N(nn−1,1n) 1n 1−1n=n−1n E(Xn)=1 0 n
Definieren Sie nun (und oder was auch immer). Die Zufallsvariablen sind gut definiert, haben jedoch keinen erwarteten Wert, da nicht definiert ist. egal wie groß ist.f(x)=1/x f(0)=0 f(Xn)
Mein Fazit ist, dass Sie eindeutig Hypothesen zum globalen Verhalten von oder - wahrscheinlicher, eleganter - zur Geschwindigkeit benötigen, mit der die Dichte von abnimmt, wenn Sie weit vom erwarteten Wert entfernt sind. Ich bin mir sicher, dass solche Hypothesen in der klassischen Literatur (und sogar in Lehrbüchern) zu finden sind, leider war meine Ausbildung nicht in Statistik und ich kämpfe immer noch selbst mit der Literatur ... trotzdem hoffe ich, dass dies geholfen hat.f Xn
PS. Ist dieses Beispiel nicht ein Gegenbeispiel zu Nicks Antwort? Wer ist dann falsch?
quelle
Dies ist keine vollständige Antwort, sondern nur ein anderer Weg, um zur Approximation zweiter Ordnung zu gelangen.
Ich denke, der beste Weg ist, Cauchys Mittelwertsatz zu verwenden, anstatt mit dem Restterm einer Taylor-Reihe zu arbeiten. Wenn wir es einmal anwenden, haben wir
für einige wenn oder wenn . Wir wenden nun den Mittelwertsatz erneut auf und habenX ≤ & mgr; X ≥ & xi; 1 ≥ & mgr; X ≥ & mgr; fX≤ξ1≤μ X≤μ X≥ξ1≥μ X≥μ f′(ξ1)
für einige wenn oder wenn . dies in die erste Formel zu setzen, gibtX ≤ & mgr; X ≥ & xi; 1 ≥ & xi; 2 ≥ & mgr; X ≥ & mgr;X≤ξ1≤ξ2≤μ X≤μ X≥ξ1≥ξ2≥μ X≥μ
Beachten Sie, dass dieses Ergebnis nur erfordert, dass stetig ist und zweimal zwischen und differenzierbar ist . Dies gilt jedoch nur für ein festes , und das Ändern von bedeutet eine entsprechende Änderung von . Die Delta-Methode zweiter Ordnung kann als die globale Annahme angesehen werden, dass und über den gesamten Bereich der Unterstützung von gilt. oder zumindest über dem Bereich der Masse mit hoher Wahrscheinlichkeit.X μ X X ≤ i ≤ 1 - μ = 1f X μ X X ξi ξ2=μXξ1−μ=12(X−μ) ξ2=μ X
quelle