Ich habe einen Detektor, der ein Ereignis mit einer gewissen Wahrscheinlichkeit p erkennt . Wenn der Detektor angibt, dass ein Ereignis aufgetreten ist, ist dies immer der Fall, sodass keine Fehlalarme vorliegen. Nachdem ich es einige Zeit ausgeführt habe, werden k Ereignisse erkannt. Ich möchte berechnen, wie viele Ereignisse insgesamt aufgetreten sind, erkannt oder auf andere Weise, mit einer gewissen Sicherheit, beispielsweise 95%.
Nehmen wir zum Beispiel an, ich bekomme 13 Ereignisse erkannt. Ich möchte berechnen können, dass es zwischen 13 und 19 Ereignisse mit 95% igem Vertrauen gab, basierend auf p .
Folgendes habe ich bisher versucht:
Die Wahrscheinlichkeit, k Ereignisse zu erkennen, wenn es insgesamt n gibt, ist:
binomial(n, k) * p^k * (1 - p)^(n - k)
Die Summe von n über k von k bis unendlich ist:
1/p
Dies bedeutet, dass die Wahrscheinlichkeit, dass insgesamt n Ereignisse vorliegen, wie folgt ist:
f(n) = binomial(n, k) * p^(k + 1) * (1 - p)^(n - k)
Wenn ich also zu 95% sicher sein möchte, sollte ich die erste Teilsumme finden, die f(k) + f(k+1) + f(k+2) ... + f(k+m)mindestens 0,95 beträgt, und die Antwort lautet [k, k+m]. Ist das der richtige Ansatz? Gibt es auch eine geschlossene Formel für die Antwort?