Die Kolmogorov-Smirnov-Verteilung ist aus dem Kolmogorov-Smirnov-Test bekannt . Es ist jedoch auch die Verteilung des Supremums der Brownschen Brücke.
Da dies für mich alles andere als selbstverständlich ist, möchte ich Sie um eine intuitive Erklärung dieses Zufalls bitten. Referenzen sind ebenfalls willkommen.
Antworten:
wobeiZi(x)=1Xi≤x−E[1Xi≤x]
nach CLT istGn=1n√∑ni=1Zi(x)→N(0,F(x)(1−F(x)))
das ist die Intuition ...
Die Brownsche Brücke hat die Varianz t ( 1 - t ). http://en.wikipedia.org/wiki/Brownian_bridge Ersetze t durch F ( x ) . Dies ist für eine x ...B(t) t(1−t) t F(x) x
Sie müssen auch die Kovarianz überprüfen, und daher ist es immer noch leicht, (CLT) zu zeigen, dass für ( ) ( G n ( x 1 ) , … , G n ( x k ) ) → ( B 1 , ... , B k ) , wo ( B 1 , ... , B k ) ist N ( 0 , Σ ) mitx1,…,xk (Gn(x1),…,Gn(xk))→(B1,…,Bk) (B1,…,Bk) N(0,Σ) , σ i j = min ( F ( x i ) , F ( x j ) ) - F ( x i ) , F ( x j ) . Σ=(σij) σij=min(F(xi),F(xj))−F(xi)F(xj)
Der schwierige Teil ist zu zeigen, dass die Verteilung des Suppremums der Grenze das Supremum der Verteilung der Grenze ist ... Um zu verstehen, warum dies geschieht, ist eine empirische Prozesstheorie erforderlich, in der Bücher wie van der Waart und Welner (nicht einfach) gelesen werden. . Der Name des Theorems lautet Donsker Theorem http://en.wikipedia.org/wiki/Donsker%27s_theorem ...
quelle
Betrachten Sie für Kolmogorov-Smirnov die Nullhypothese. Es heißt, dass eine Stichprobe aus einer bestimmten Verteilung gezogen wird. Also, wenn Sie die empirische Verteilungsfunktion für konstruierenn Proben f(x)=1n∑iχ(−∞,Xi](x) , in the limit of infinite data, it will converge to the underlying distribution.
For finite information, it will be off. If one of the measurements isq , then at x=q the empirical distribution function takes a step up. We can look at it as a random walk which is constrained to begin and end on the true distribution function. Once you know that, you go ransack the literature for the huge amount of information known about random walks to find out what the largest expected deviation of such a walk is.
You can do the same trick with anyp -norm of the difference between the empirical and underlying distribution functions. For p=2 , it's called the Cramer-von Mises test. I don't know the set of all such tests for arbitrary real, positive p form a complete class of any kind, but it might be an interesting thing to look at.
quelle