Dieses Papier könnte von Interesse sein:
http://arxiv.org/pdf/0906.4032v1.pdf
Es gibt eine schöne Zusammenfassung einiger häufig auftretender und bayesianischer Ansätze für das Zwei-Beispiele-Problem und erörtert sowohl die parametrischen als auch die nichtparametrischen Fälle.
Es könnte den anderen Antworten etwas hinzufügen, um ein einfaches Beispiel zu geben. Angenommen, Sie haben zwei Datensätze und y, in denen jedes x i und jedes y j istxyxiyj entweder eine 0 oder eine . Sie gehen von einem IId Bernoulli - Modell in beiden Fällen, so dass jeder x i ~ B e r n ( p ) und jeder y i ~ B e r n ( q ) . Ihre Hypothese Szenario testet in sowohl der frequentistischen und Bayes - Einstellungen können sein:1xi∼Bern(p)yi∼Bern(q)
H0:p=q
nicht unbedingt gleich.H1:p,q
Die Wahrscheinlichkeiten für die Daten sind jeweils:
Unter : L 0 ( p ) = f ( x , y ; pH0L0(p)=f(x,y;p)=∏ipi(1−p)1−i∏jpj(1−p)1−j
Unter : L 1 ( p , q ) = f ( x , y ; p , qH1L1(p,q)=f(x,y;p,q)=∏ipi(1−p)1−i∏jqj(1−q)1−j
H0q=p
W=−2log{L0(pmax)L1(pmax,qmax)},
pmax,qmaxpqpmaxpmaxWχ21H0
p∼π0H0p,q∼π1H1
BF=f(x,y|H0)f(x,y|H1)=∫10L0(p)π0(p)dp∫10∫10L1(p,q)π1(p,q)dpdq.
The Bayes factor can be combined with some prior beliefs on the probability of H0 or H1 being true, to give the probability of H0 versus H1 after seeing the data. If we assume apriori that each hypothesis is equally likely, so p(H0)=p(H1)=1/2, then this gives:
p(H0|x,y)p(H1|x,y)=BF×p(H0)p(H1)=BF×1/21/2=BF.
Intuitively, if this ratio is >1, then the posterior probability of H0 is larger than H1, so you would say that H0 has a higher probability of being true under these assumptions for the prior and model.
One nice thing about the Bayes factor is how it automatically penalises more complex models (such as H1 here). A nice paper offering some more intuition is here: http://quasar.as.utexas.edu/papers/ockham.pdf.
Hope that helps along with the other answers already posted.