Wenn , wo die Unterstützung von ist . Also ist . Dann nehme ich an, hat endliche Momente. Wenn , weiß ich, dass dies wobei die zugehörige Dichte von . Was die mathematische Äquivalent davon hat endliche Momente , wenn ?
In diesem Link auf Seite 2 definieren die Autoren den ten Moment als wobei \ | \ cdot \ | ist die euklidische Norm.
Die Antwort von Glen_b hier legt nahe, dass der te Moment
Bedeutet die Annahme, dass einer endlich ist, dass der andere endlich ist?
probability
random-variable
expected-value
moments
Greenparker
quelle
quelle
Antworten:
Die Antwort ist negativ, aber das Problem kann behoben werden.
Um zu sehen, was schief geht, lassen Sie eine Student t-Verteilung mit zwei Freiheitsgraden haben. Seine hervorstechenden Eigenschaften sind, dass endlich ist, aber . Betrachten Sie die bivariate Verteilung von . Sei sein Verteilungselement (das singulär ist: es wird nur auf der Diagonale ). Entlang der Diagonale ist , woherE ( | X | ) E ( | X | 2 ) = ∞ ( X , X ) f ( x , y ) d x d y x = y | | ( x , y ) | | = | x | √X E(|X|) E(|X|2)=∞ (X,X) f(x,y)dxdy x=y ||(x,y)||=|x|2–√
wohingegen
Analoge Berechnungen in Dimensionen sollten , dassp
ist wirklich ein Moment der Ordnung , nicht . Weitere Informationen zu multivariaten Momenten finden Sie unter Sei ein Zufallsvektor. Werden te Momente von berücksichtigt? .pk k Y k Y
Um herauszufinden, welche Beziehungen zwischen den multivariaten Momenten und den Momenten der Norm bestehen sollten, benötigen wir zwei Ungleichungen. Sei ein beliebiger dimensionaler Vektor und sei positive Zahlen. Schreiben Sie für ihre Summe (was für alle impliziert ). Sei eine beliebige positive Zahl (in der Anwendung ist für die euklidische Norm, aber es stellt sich heraus, dass der Wert nichts Besonderes ist ). Schreiben Sie wie üblichx=(x1,…,xp) p k1,k2,…,kp k=k1+k2+⋯kp ki/k≤1 i q>0 q=2 2
Wenden wir zunächst die AM-GM-Ungleichung auf die nicht negativen Zahlen mit den Gewichten . Dies besagt, dass das gewichtete geometrische Mittel das gewichtete arithmetische Mittel nicht überschreiten kann:|xi|q ki
Überschätzen Sie die rechte Seite, indem Sie jedes durch ersetzen und die Potenz beider Seiten nutzen:ki/k 1 k/q
Überschätzen wir nun indem wir jeden Term durch den größten unter ihnen ersetzen , :||x||q |xi|q max(|xi|q)=max(|xi|)q
Wenn man Potenzen nimmt, ergibt sichkth
Schreiben Sie als Notation
Dies ist der Moment der Ordnung(k1,k2,…,kp) (und die Gesamtreihenfolge ). Durch die Integration gegen wird Ungleichung hergestelltk f (1)
und Ungleichung ergibt(2)
Seine rechte Seite ist bis zu einem konstanten Vielfachen die Summe der univariaten Momente. Zusammen und zeigenkth (3) (4)
Die Endlichkeit aller univariaten Momente impliziert die Endlichkeit von .kth E(||X||kq)
Die Endlichkeit von impliziert die Endlichkeit aller für die .E(||X||kq) μ(k1,…,kp) k1+⋯+kp=k
Tatsächlich kombinieren diese beiden Schlussfolgerungen als Syllogismus zu zeigen , dass die Endlichkeit der univariaten Momente der Ordnung Endlichkeit aller multivariate Momente der Ordnung impliziert .k k
Somit,
quelle
Die Antwort von @whuber ist richtig und gut komponiert.
Ich habe diesen Thread nur geschrieben, um herauszufinden, warum ein solches Problem in der Sprache der Tensoren besser angegangen werden kann. Früher dachte ich, dass der Tensor-Standpunkt in der Statistik-Community weithin akzeptiert wird, jetzt weiß ich, dass dies nicht der Fall ist.
In den Seiten 46-47 von [McCullagh] erklärte er, wie wir Momente als Tensoren betrachten könnten. Ich erklärte es im Grunde nach seinen Worten. Sei ein Zufallsvektor, und wir können seine (zentralen) Momente diskutieren . Und wenn wir affine Transformationen (äquivalent können wir es in Matrixnotation schreiben in die Wahrscheinlichkeitsraum, so ist die sich ergebende (zentrale) Moment istX=(X1,⋯Xp) κi,j=E(Xi−EXi)(Xj−EXj) Yr=ArX+br Y=AX+b) Yr,Ys
Was den Grund betrifft, warum wir eine solche Ansicht vertreten sollten, ist die Geschichte viel länger, aber es folgt ein kurzer Kommentar.
Die klassische Referenz bei der Etablierung dieser Ansicht ist [McCullagh] und später verstreute Werke in der Literatur zum "maschinellen Lernen". Aber der Ursprung einer solchen Ansicht wird tatsächlich viel früher in den Werken des Bayesian [Jeffereys] verfolgt. Eine solche Ansicht hilft definitiv bei der Visualisierung und hat wahrscheinlich einige Forschungen zur statistischen Formanalyse wie die frühen Arbeiten von Mardia motiviert.
[McCullagh] http://www.stat.uchicago.edu/~pmcc/tensorbook/ch1.pdf
[Jeffreys] Jeffreys, Harold. Kartesische Tensoren. Cambridge University Press, 1931.
quelle