Ich habe gerade angefangen, Statistik zu studieren, und ich kann nicht intuitiv verstehen, wie ausreichend ist. Genauer gesagt kann ich nicht nachvollziehen, wie die folgenden beiden Absätze gleichwertig sind:
Grob gesagt ist eine ausreichende Statistik eine Funktion T (X), deren Wert alle Informationen enthält, die benötigt werden, um eine Schätzung des Parameters zu berechnen, wenn ein Satz X unabhängiger, identisch verteilter Daten unter Bedingungen eines unbekannten Parameters & thgr; gegeben ist.
Eine Statistik T (X) ist für den zugrunde liegenden Parameter θ gerade dann ausreichend, wenn die bedingte Wahrscheinlichkeitsverteilung der Daten X bei gegebener Statistik T (X) nicht vom Parameter θ abhängt.
(Ich habe die Anführungszeichen aus der ausreichenden Statistik übernommen. )
Obwohl ich die zweite Aussage verstehe und den Faktorisierungssatz verwenden kann, um zu zeigen, ob eine gegebene Statistik ausreicht, kann ich nicht verstehen, warum eine Statistik mit einer solchen Eigenschaft auch die Eigenschaft hat, dass sie alle Informationen enthält, die zur Berechnung einer solchen benötigt werden Schätzung des Parameters ". Ich bin nicht auf der Suche nach einem formalen Beweis, der mir trotzdem helfen würde, mein Verständnis zu verfeinern. Ich möchte eine intuitive Erklärung dafür erhalten, warum die beiden Aussagen gleichwertig sind.
Zusammenfassend lauten meine Fragen: Warum sind die beiden Aussagen gleichwertig? Könnte jemand eine intuitive Erklärung für ihre Gleichwertigkeit liefern?
quelle
Antworten:
Nach den Kommentaren von @whuber und @Kamster habe ich mich wahrscheinlich besser verstanden. Wenn wir sagen, dass eine ausreichende Statistik alle Informationen enthält, die zum Berechnen einer Schätzung des Parameters erforderlich sind, meinen wir tatsächlich, dass es ausreicht, den Maximum-Likelihood-Schätzer (der eine Funktion aller ausreichenden Statistiken ist) zu berechnen.
Da ich meine eigene Frage beantworte und die Antwort nicht 100% sicher ist, werde ich sie erst dann als richtig markieren, wenn ich ein Feedback bekomme. Bitte fügen Sie einen Kommentar hinzu und stimmen Sie ab, wenn Sie glauben, ich liege falsch / ungenau / etc ...
(Lassen Sie mich wissen, wenn dies nicht mit der SE-Etikette vereinbar ist. Da dies meine erste Frage ist, bitte ich Sie um Gnade, wenn ich gegen eine Regel verstoße.)
quelle
Als ich über Suffizienz lernte, stieß ich auf Ihre Frage, weil ich auch die Intuition darüber verstehen wollte. Nach dem, was ich gesammelt habe, habe ich mir das ausgedacht (lassen Sie mich wissen, was Sie denken, wenn ich Fehler gemacht habe usw.).
Sei eine Zufallsstichprobe aus einer Poisson-Verteilung mit dem Mittelwert . θ > 0X1,…,Xn θ>0
Wir wissen , dass ist eine erschöpfende Statistik für , da die bedingte Verteilung von gegeben ist frei von , hängt also nicht von . θ X 1 , ... , X n T ( X ) θ θT(X)=∑ni=1Xi θ X1,…,Xn T(X) θ θ
Nun weiß Statistiker , dass und erstellt aus dieser Verteilung Zufallswerte:A X1,…,Xn∼i.i.dPoisson(4) n=400
Für die Werte, die der Statistiker erstellt hat, nimmt er die Summe und fragt den Statistiker :A B
"Ich habe diese Beispielwerte aus einer Poisson-Verteilung entnommen. Wenn weiß, dass , was können Sie mir über diese Verteilung sagen?"x1,…,xn ∑ni=1xi=y=4068
der Statistiker also nur weiß, dass (und die Tatsache, dass die Stichprobe aus einer Poisson-Verteilung stammt) , kann er nichts über aussagen ? Da wir wissen, dass dies eine ausreichende Statistik ist, wissen wir, dass die Antwort "Ja" lautet.∑ni=1xi=y=4068 B θ
Um sich ein Bild von der Bedeutung zu machen, gehen wir wie folgt vor (entnommen aus Hogg & Mckean & Craigs "Introduction to Mathematical Statistics", 7. Auflage, Aufgabe 7.1.9):
" entscheidet , einige gefälschten Beobachtungen zu schaffen, die er nennt (wie er weiß , werden sie wahrscheinlich nicht das Original gleich -Werten) wie folgt. Er stellt fest , dass die bedingte Wahrscheinlichkeit von unabhängiger Poisson Zufallsvariablen gleich , wenn istB z1,z2,…,zn x Z1,Z2…,Zn z1,z2,…,zn ∑zi=y
da eine Poisson-Verteilung mit dem Mittelwert . Die letztere Verteilung ist multinomial mit unabhängigen Versuchen, von denen jeder auf eine von gegenseitig ausschließenden und erschöpfenden Arten endet , von denen jeder die gleiche Wahrscheinlichkeit . Dementsprechend führt eine solche multinomial Experiment unabhängige Versuche und erhält .“Y=∑Zi nθ y n 1/n B y z1,…,zn
Das steht in der Übung. Also machen wir genau das:
Und mal sehen, wie aussieht (ich zeichne auch die reale Dichte von Poisson (4) für - alles über 13 ist praktisch Null - zum Vergleich):k = 0 , 1 , ... , 13Z k=0,1,…,13
Wir wussten also nichts über und wussten nur die ausreichende Statistik thgr; i. Wir waren in der Lage, eine "Verteilung" umzuschreiben, die einer Poisson (4) -Verteilung ähnelt (wenn zunimmt, werden die beiden Kurven ähnlicher). .Y = ∑ X i nθ Y=∑Xi n
Nun vergleiche und :Z | yX Z|y
Wir sehen, dass sie sich auch ziemlich ähnlich sind (wie erwartet)
"Um eine statistische Entscheidung zu treffen, können wir die einzelnen Zufallsvariablen ignorieren und die Entscheidung vollständig auf der Grundlage von " (Ash, R. "Statistical Inference: A concise course") treffen. , Seite 59). Y = X 1 + X 2 + ⋯ + X nXi Y=X1+X2+⋯+Xn
quelle
Lassen Sie mich eine andere Perspektive geben, die helfen kann. Dies ist auch qualitativ, aber es gibt eine strenge Version davon, die in der Informationstheorie besonders wichtig ist - bekannt als Markov-Eigenschaft.
Am Anfang haben wir zwei Objekte, Daten (aus einer Zufallsvariablen, nennen wir es X) und Parameter, (ein anderes rv, das implizit angenommen wird, da es sich um seinen Schätzer handelt). Man geht davon aus, dass diese beiden voneinander abhängig sind (andernfalls macht es keinen Sinn, zu versuchen, sie voneinander abzuschätzen). Nun betritt das dritte Objekt das Spiel, ausreichend Statistik, T. Die intuitive Idee, wenn wir sagen, dass T ausreicht, um zu schätzen, bedeutet, dass X, wenn wir T kennen (dh auf T konditioniert), keine zusätzlichen Informationen liefert, das heißt, X und sind unabhängig. Mit anderen Worten, die Kenntnis von X entspricht der Kenntnis von T bis zur Schätzung vonθ θ θθ θ θ θ ist besorgt. Beachten Sie, dass in Wahrscheinlichkeiten alle Unsicherheiten erfasst werden und daher "jede Schätzung", wenn (bedingte) Wahrscheinlichkeiten unabhängig sind (z. B. bedingte Dichten faktorisieren).
quelle