Ich stimme der ausgezeichneten Antwort von Xi'an zu und weise darauf hin, dass es keinen einzigen Prior gibt, der "nicht aussagekräftig" ist, wenn er keine Informationen enthält. Um dieses Thema zu erweitern, wollte ich darauf hinweisen, dass eine Alternative darin besteht, eine Bayes'sche Analyse innerhalb des ungenauen Wahrscheinlichkeitsrahmens durchzuführen (siehe insbesondere Walley 1991 , Walley 2000 ). Innerhalb dieses Rahmens wird der frühere Glaube durch eine Reihe von Wahrscheinlichkeitsverteilungen dargestelltund dies führt zu einer entsprechenden Menge von posterioren Verteilungen. Das klingt vielleicht nicht sehr hilfreich, ist aber erstaunlich. Selbst bei einer sehr breiten Palette von früheren Verteilungen (bei denen bestimmte Momente über alle möglichen Werte reichen können) kommt es häufig zu einer Konvergenz von posterior zu einem einzelnen posterior als .n→∞
Dieses analytische Gerüst wurde von Walley als seine eigene spezielle Form der probabilistischen Analyse axiomatisiert, entspricht jedoch im Wesentlichen der robusten Bayes'schen Analyse unter Verwendung einer Reihe von Prioren, wodurch eine entsprechende Reihe von Posterioren erhalten wird. In vielen Modellen ist es möglich, eine "uninformative" Menge von Prioritäten festzulegen, die es ermöglicht, dass einige Momente (z. B. der vorherige Mittelwert) über den gesamten möglichen Wertebereich variieren, und dies führt dennoch zu wertvollen posterioren Ergebnissen, bei denen die posterioren Momente begrenzt sind enger. Diese Form der Analyse hat wohl einen besseren Anspruch darauf, als "nicht informativ" bezeichnet zu werden, zumindest in Bezug auf Momente, die über ihren gesamten zulässigen Bereich variieren können.
Ein einfaches Beispiel - Bernoulli-Modell: Angenommen, wir beobachten die Daten wobei der unbekannte interessierende Parameter ist. Normalerweise würden wir eine Beta-Dichte als Prior verwenden (sowohl der Jeffrey-Prior als auch der Referenz-Prior haben diese Form). Wir können diese Form der vorherigen Dichte in Form des vorherigen Mittelwerts und eines anderen Parameters wie angeben :X1,...,Xn|θ∼IID Bern(θ)θμκ>1
π0(θ|μ,κ)=Beta(θ|μ,κ)=Beta(θ∣∣α=μ(κ−1),β=(1−μ)(κ−1)).
(Diese Form gibt frühere Momente an: und .) Nun, in einem ungenauen Modell könnten wir set the prior to besteht aus der Menge all dieser früheren Verteilungen über alle möglichen erwarteten Werte , wobei der andere Parameter festgelegt wird, um die Genauigkeit über den Bereich der Mittelwerte zu steuern. Zum Beispiel könnten wir die Reihe der Prioritäten verwenden:E(θ)=μV(θ)=μ(1−μ)/κ
P0≡{Beta(μ,κ)∣∣0⩽μ⩽1}.
Angenommen, wir beobachten positive Indikatoren in den Daten. Unter Verwendung der Aktualisierungsregel für das Bernoulli-Beta-Modell lautet der entsprechende hintere Satz:s=∑ni=1xi
Px={Beta(s+μ(κ−1)n+κ−1,n+κ)∣∣0⩽μ⩽1}.
Der Bereich möglicher Werte für die hintere Erwartung ist:
sn+κ−1⩽E(θ|x)⩽s+κ−1n+κ−1.
Was hier wichtig ist, ist, dass wir, obwohl wir mit einem Modell begonnen haben, das in Bezug auf den erwarteten Wert des Parameters "nicht informativ" war (die vorherige Erwartung lag über allen möglichen Werten), dennoch zu hinteren Schlussfolgerungen kommen, die in Bezug auf Respekt aussagekräftig sind zur späteren Erwartung des Parameters (sie erstrecken sich nun über einen engeren Wertesatz). Mit dieser Wertebereich auf einen einzelnen Punkt heruntergedrückt, der der wahre Wert von .n→∞θ