Wie lautet die (ungefähre oder genaue) Formel für ein Vorhersageintervall für eine Binomial-Zufallsvariable?
Es sei angenommen , , und wir beobachten , (aus gezogenem ). Das ist bekannt.
Unser Ziel ist es, ein Vorhersageintervall von 95% für eine neue Ziehung von .
Die Punktschätzung ist , wobei p = y . Ein Konfidenzintervall für p ist einfach, aber ich kann nicht eine Formel für ein Prognoseintervall für findenY. Wenn wir wusstendassp(statt p ), dann ein 95% Prognoseintervall beinhaltet nur die Quantile eines binomischenfinden. Gibt es etwas, das ich übersehen habe?
confidence-interval
binomial
prediction-interval
Statseeker
quelle
quelle
Antworten:
Ok, lass es uns versuchen. Ich werde zwei Antworten geben - die Bayesianische, die meiner Meinung nach einfach und natürlich ist, und eine der möglichen häufigeren.
Bayes'sche Lösung
Wir gehen davon aus einem Beta vor auf , i, e., P ~ B e t einem ( α , β ) , weil die Beta-Binomialverteilung Modell - Konjugat, was bedeutet , dass die a posteriori Verteilung ist auch eine Beta - Verteilung mit Parametern α = α + k , β = β + n - k , (ich verwende k die Anzahl der Erfolge in bezeichnen n Versuchen anstelle von y ). Somit wird die Folgerung stark vereinfacht. Nun, wenn Sie einige Vorkenntnisse über die wahrscheinlichen Werte von habenp p∼Beta(α,β) α^= α + k , β^= β+ n - k k n y , Sie könnten es verwenden, um die Werte von α und β festzulegen, dh Ihre Beta-Priorität zu definieren, andernfalls könnten Sie eine einheitliche (nicht informative) Priorität mit α = β = 1 oder andere nicht informativePrioritäten annehmen(siehe zum Beispielhier). In jedem Fall ist Ihr posteriorp α β α = β= 1
Bei der Bayes'schen Folgerung kommt es nur auf die hintere Wahrscheinlichkeit an. Wenn Sie dies wissen, können Sie auf alle anderen Größen in Ihrem Modell schließen. Sie möchten Rückschlüsse auf die Observablen : insbesondere auf einen Vektor neuer Ergebnisse y = y 1 , … , y m , wobei m nicht unbedingt gleich n ist . Speziell wollen wir für jedes j = 0 , … , m die Wahrscheinlichkeit berechnen, genau j Erfolge in den nächsten m Versuchen zu haben, vorausgesetzt, wir haben ky y=y1,…,ym m n j=0,…,m j m k Erfolge in den vorhergehenden Versuchen; Die posteriore prädiktive Massenfunktion:n
Doch unsere Binomial - Modell für bedeutet , dass, bedingt auf p einen bestimmten Wert aufweist, wobei die Wahrscheinlichkeit, j Erfolge in m Studien nicht auf die letzten Ergebnisse sind abhängig: es ist einfachY p j m
So wird der Ausdruck
Das Ergebnis dieses Integrals ist eine bekannte Distribution, die als Beta-Binomial-Distribution bezeichnet wird: Wenn wir die Passagen überspringen, erhalten wir den schrecklichen Ausdruck
Unsere Punktschätzung für bei quadratischem Verlust ist natürlich der Mittelwert dieser Verteilung, dhj
Lassen Sie uns nun nach einem Vorhersageintervall suchen. Da es sich um eine diskrete Verteilung handelt, haben wir keinen Ausdruck in geschlossener Form für , so dass P r ( j 1 ≤ j ≤ j 2 ) = 0,95 ist . Der Grund dafür ist, dass je nachdem, wie Sie ein Quantil definieren, die Quantilfunktion für eine diskrete Verteilung entweder keine Funktion oder eine diskontinuierliche Funktion ist. Dies ist jedoch kein großes Problem: Für kleines m können Sie einfach die m - Wahrscheinlichkeiten P r ( j = 0) aufschreiben[j1,j2] Pr(j1≤j≤j2)=0.95 m m und von hier finden j 1 , j 2 , so dassPr(j=0|m,n,k),Pr(j≤1|m,n,k),…,Pr(j≤m−1|m,n,k) j1,j2
Natürlich würden Sie mehr als ein Paar finden, also würden Sie idealerweise nach dem kleinsten suchen , so dass das oben Genannte erfüllt ist. Beachten Sie, dass[j1,j2]
sind nur die Werte der CMF (Cumulative Mass Function) der Beta-Binomial-Verteilung, und als solche gibt es einen Ausdruck in geschlossener Form , der sich jedoch auf die verallgemeinerte hypergeometrische Funktion bezieht und daher ziemlich kompliziert ist. Ich möchte lieber nur das R-Paket installierenp0,…,pm−1
extraDistr
und aufrufenpbbinom
, um die CMF der Beta-Binomial-Distribution zu berechnen. Wenn Sie alle Wahrscheinlichkeiten auf einmal berechnen möchten , schreiben Sie einfach:woα β p
alpha
undbeta
sind die Werte der Parameter Ihres Beta-Prior, dh und β (also 1, wenn Sie ein einheitliches Prior vor p verwenden ). Natürlich wäre alles viel einfacher, wenn R eine Quantilfunktion für die Beta-Binomial-Verteilung bereitstellen würde, aber leider nicht.Praxisbeispiel mit der Bayes'schen Lösung
Sei , k = 70 (so haben wir zunächst 70 Erfolge in 100 Versuchen beobachtet). Wir wollen eine Punktschätzung und ein 95% -Vorhersageintervall für die Anzahl der Erfolge j in den nächsten m = 20 Versuchen. Dannn=100 k=70 j m=20
wo ich auf einen einheitlichen Stand vorausgesetzt habe : Abhängig von den Vorkenntnissen für Ihre spezifische Anwendung kann dies ein guter Stand sein oder nicht. Somitp
Es ist klar, dass eine nicht ganzzahlige Schätzung für keinen Sinn ergibt. Wir könnten also einfach auf die nächste ganze Zahl (14) runden. Dann für das Vorhersageintervall:j
Die Wahrscheinlichkeiten sind
Bei gleichem-tail Wahrscheinlichkeiten Intervall, wollen wir die kleinste derart , dass P r ( j ≤ j 2 | m , n , k ) ≥ 0,975 und die größte j 1 , so daß P r ( j < j 1 | m , n , k ) = P r ( j ≤ j 1 - 1 | m , n , kj2 Pr(j≤j2|m,n,k)≥0.975 j1 Pr(j<j1|m,n,k)=Pr(j≤j1−1|m,n,k)≤0.025 . This way, we will have
Thus, by looking at the above probabilities, we see thatj2=18 and j1=9 . The probability of this Bayesian prediction interval is 0.9778494, which is larger than 0.95. We could find shorter intervals such that Pr(j1≤j≤j2|m,n,k)≥0.95 , but in that case at least one of the two inequalities for the tail probabilities wouldn't be satisfied.
Frequentist solution
I'll follow the treatment of Krishnamoorthy and Peng, 2011. LetY∼Binom(m,p) and X∼Binom(n,p) be independently Binominally distributed. We want a 1−2α− prediction interval for Y , based on a observation of X . In other words we look for I=[L(X;n,m,α),U(X;n,m,α)] such that:
The "≥1−2α " is due to the fact that we are dealing with a discrete random variable, and thus we cannot expect to get exact coverage...but we can look for an interval which has always at least the nominal coverage, thus a conservative interval. Now, it can be proved that the conditional distribution of X given X+Y=k+j=s is hypergeometric with sample size s , number of successes in the population n and population size n+m . Thus the conditional pmf is
The conditional CDF ofX given X+Y=s is thus
The first great thing about this CDF is that it doesn't depend onp , which we don't know. The second great thing is that it allows to easily find our PI: as a matter of fact, if we observed a value k of X, then the 1−α lower prediction limit is the smallest integer L such that
correspondingly, the the1−α upper prediction limit is the largest integer such that
Thus,[L,U] is a prediction interval for Y of coverage at least 1−2α . Note that when p is close to 0 or 1, this interval is conservative even for large n , m , i.e., its coverage is quite larger than 1−2α .
Practical example with the Frequentist solution
Same setting as before, but we don't need to specifyα and β (there are no priors in the Frequentist framework):
The point estimate is now obtained using the MLE estimate for the probability of successes,p^=kn , which in turns leads to the following estimate for the number of successes in m trials:
For the prediction interval, the procedure is a bit different. We look for the largestU such that Pr(X≤k|k+U,n,n+m)=H(k;k+U,n,n+m)>α , thus let's compute the above expression for all U in [0,m] :
We can see that the largestU such that the probability is still larger than 0.025 is
Same as for the Bayesian approach. The lower prediction boundL is the smallest integer such that Pr(X≥k|k+L,n,n+m)=1−H(k−1;k+L,n,n+m)>α , thus
Thus our frequentist "exact" prediction interval is[L,U]=[8,18] .
quelle