Ich habe einen Detektor, der ein Ereignis mit einer gewissen Wahrscheinlichkeit p erkennt . Wenn der Detektor angibt, dass ein Ereignis aufgetreten ist, ist dies immer der Fall, sodass keine Fehlalarme vorliegen. Nachdem ich es einige Zeit ausgeführt habe, werden k Ereignisse erkannt. Ich möchte berechnen, wie viele Ereignisse insgesamt aufgetreten sind, erkannt oder auf andere Weise, mit einer gewissen Sicherheit, beispielsweise 95%.
Nehmen wir zum Beispiel an, ich bekomme 13 Ereignisse erkannt. Ich möchte berechnen können, dass es zwischen 13 und 19 Ereignisse mit 95% igem Vertrauen gab, basierend auf p .
Folgendes habe ich bisher versucht:
Die Wahrscheinlichkeit, k Ereignisse zu erkennen, wenn es insgesamt n gibt, ist:
binomial(n, k) * p^k * (1 - p)^(n - k)
Die Summe von n über k von k bis unendlich ist:
1/p
Dies bedeutet, dass die Wahrscheinlichkeit, dass insgesamt n Ereignisse vorliegen, wie folgt ist:
f(n) = binomial(n, k) * p^(k + 1) * (1 - p)^(n - k)
Wenn ich also zu 95% sicher sein möchte, sollte ich die erste Teilsumme finden, die f(k) + f(k+1) + f(k+2) ... + f(k+m)
mindestens 0,95 beträgt, und die Antwort lautet [k, k+m]
. Ist das der richtige Ansatz? Gibt es auch eine geschlossene Formel für die Antwort?
quelle
Ich denke, Sie haben den Zweck von Konfidenzintervallen falsch verstanden. Mithilfe von Konfidenzintervallen können Sie beurteilen, wo sich der wahre Wert des Parameters befindet. In Ihrem Fall können Sie also ein Konfidenzintervall für . Es ist nicht sinnvoll, ein Intervall für die Daten zu erstellen.p
Wenn Sie jedoch eine Schätzung von , können Sie die Wahrscheinlichkeit berechnen, dass Sie verschiedene Realisierungen wie 14, 15 usw. mithilfe des Binomial-PDFs beobachten.p
quelle