Gibt es eine numerisch stabile Methode zur Berechnung der Werte einer Beta-Verteilung für Alpha, Beta (z. B. Alpha, Beta> 1000000)?
Eigentlich brauche ich nur ein 99% -Konfidenzintervall um den Modus, wenn das das Problem irgendwie einfacher macht.
Hinzufügen : Es tut mir leid, meine Frage war nicht so klar gestellt, wie ich dachte. Was ich tun möchte, ist Folgendes: Ich habe eine Maschine, die Produkte auf einem Förderband inspiziert. Ein Teil dieser Produkte wird von der Maschine abgelehnt. Wenn der Maschinenbediener nun eine Inspektionseinstellung ändert, möchte ich ihm die geschätzte Ausschussrate und einen Hinweis darauf geben, wie zuverlässig die aktuelle Schätzung ist.
Also dachte ich, ich behandle die tatsächliche Ablehnungsrate als Zufallsvariable X und berechne die Wahrscheinlichkeitsverteilung für diese Zufallsvariable basierend auf der Anzahl der zurückgewiesenen Objekte N und akzeptierten Objekte M. Wenn ich eine einheitliche vorherige Verteilung für X annehme, ist dies a Beta-Verteilung in Abhängigkeit von N und M. Ich kann diese Verteilung entweder direkt dem Benutzer anzeigen oder ein Intervall [l, r] finden, so dass die tatsächliche Ablehnungsrate in diesem Intervall mit p> = 0,99 (unter Verwendung der Shabbychef-Terminologie) liegt, und dieses anzeigen Intervall. Für kleines M, N (dh unmittelbar nach der Parameteränderung) kann ich die Verteilung direkt berechnen und das Intervall [l, r] approximieren. Für großes M, N führt dieser naive Ansatz jedoch zu Unterlauffehlern, da x ^ N * (1-x) ^ M zu klein ist, um als Float mit doppelter Genauigkeit dargestellt zu werden.
Ich denke, meine beste Wette ist es, meine naive Beta-Verteilung für kleine M, N zu verwenden und zu einer Normalverteilung mit demselben Mittelwert und derselben Varianz zu wechseln, sobald M, N einen bestimmten Schwellenwert überschreitet. Ist das sinnvoll?