Ich betrachte die Verteilung der Summe der Quadrate von T-verteilten Zufallsvariablen mit dem Endexponenten . Wo X das rv ist, gibt mir die Fourier-Transformation für X 2 , F ( t ) eine Lösung für das Quadrat vor der Faltung F ( t ) n . F ( t ) = ∫ ∞ 0 exp ( i
Mit ist die Lösung möglich, aber unhandlich und unmöglich zu inversieren, um ein inverses Fourier für F ( t ) n durchzuführen . Die Frage ist also: Wurden Arbeiten zur Verteilung der Stichprobenvarianz oder Standardabweichung von T-verteilten Zufallsvariablen durchgeführt? (Für den StudentT wäre es das Chi-Quadrat für den Gaußschen). Vielen Dank.
(Mögliche Lösung) Ich habe herausgefunden, dass nach Fisher F ( 1 , α ) verteilt ist, daher wird die Summe der nach Fisher verteilten Variablen betrachtet.
(Mögliche Lösung) Aus den charakteristischen Funktionen hat der Durchschnitt von summiertem X 2 die gleichen ersten beiden Momente einer F ( n , α ) -Verteilung, wenn diese existieren. Daher kann mit u der Quadratwurzel und einer Änderung der Variablen innerhalb einer Wahrscheinlichkeitsverteilung die Dichte der Standardabweichung der n-Stichproben-T-Variablen angenähert werden mit: g ( u ) = 2 α α / 2 n n / 2 u n - 1 ( α + n u 2
Antworten:
Eine Klarstellung Ihrer Frage (es scheint mir zwei verwandte, aber unterschiedliche Teile zu geben): Sie suchen nach (1) Verteilung einer Summe von unabhängigen Quadraten t αn tα Zufallsvariablen und (2) Stichprobenverteilung der Varianz (oder die zugehörige Standardabweichung) einer Zufallsstichprobe aus einem tα -Verteilung (vermutlich Ihr Grund, nach (1) zu fragen).
Verteilung der Summe des unabhängigen Quadratstα Variablen
Wenn (unabhängige) zufällige t- Variablen mit α df sind, ist es falsch, dass ∑ n i = 1 T 2 i ∼ F ( n , αTi∼tα t α (was Sie in Ihrem zweiten zu behaupten scheinen) " mögliche Lösung"). Dies lässt sich leicht überprüfen, indem der erste Moment eines jeden berücksichtigt wird (der erste Moment des letzteren ist n- mal der erste). ∑ni=1T2i∼F(n,α) n
Die Behauptung in Ihrer ersten "möglichen Lösung" ist richtig: . Anstatt auf charakteristische Funktionen zurückzugreifen, denke ich, dass dieses Ergebnis transparenter ist, wenn man die Charakterisierung des t betrachtetT2i∼F(1,α) t Verteilung als Verteilung des Verhältnisses ZU/α√ Z U α Z V/1U/α V=Z2 F(1,α) α
Sampling Distribution of Variance When Sampling from atα Distribution
Considering what I have written above, the expression you obtain for "the density of the standard deviation of n-sample T variables" is incorrect. However, even if theF(n,α) were the correct distribution, the standard deviation is not simply the square root of the sum of squares (as you seem to have used to arrive at your g(u) density). You would instead be looking for the (scaled) sampling distribution of ∑ni=1(Ti−T¯)2=∑ni=1T2i−nT¯2 . In the normal case, the LHS of this expression can be re-written as a sum of squared normal variables (the term inside the square can be re-written as a linear combination of normal variables which is again normally distributed) which leads to the familiar χ2 distribution. Unfortunately, a linear combination of t variables (even with the same degrees of freedom) is not distributed as t , so a similar approach can not be exploited.
Perhaps you should re-consider what it is you wish to demonstrate? It may be possible to achieve the objective using some simulations, for example. However, you do indicate an example withα=3 , a situation where only the first moment of F(1,α) is finite, so simulation won't help with such moment calculations.
quelle
You may want to check out Hotelling's T-distribution (http://en.wikipedia.org/wiki/Hotelling's_T-squared_distribution). There is relationships withT2 being a F -distribution (http://en.wikipedia.org/wiki/F-distribution#Related_distributions_and_properties), but I'm not sure this is exactly what you're asking for.
quelle