Bayesianische Statistiken zum ersten Mal lernen; Als ein Winkel zum Verständnis von MCMC fragte ich mich: Ist es etwas, was grundsätzlich nicht anders zu machen ist, oder ist es einfach viel effizienter als die Alternativen?
Nehmen wir zur Veranschaulichung an, wir versuchen, die Wahrscheinlichkeit unserer Parameter zu berechnen, wenn die Daten gegeben sind und ein Modell vorliegt, das das Gegenteil von berechnet . Um dies zu berechnen direkt mit Bayes-Theorem müssen wir den Nenner wie erwähnt hier . Aber können wir das durch Integration wie folgt berechnen:P ( D | x , y , z ) P ( D )
p_d = 0.
for x in range(xmin,xmax,dx):
for y in range(ymin,ymax,dy):
for z in range(zmin,zmax,dz):
p_d_given_x_y_z = cdf(model(x,y,z),d)
p_d += p_d_given_x_y_z * dx * dy * dz
Würde das funktionieren (wenn auch sehr ineffizient bei einer höheren Anzahl von Variablen) oder gibt es etwas anderes, das dazu führen würde, dass dieser Ansatz fehlschlägt?