Die Entropie zeigt Ihnen, wie viel Unsicherheit im System ist. Angenommen, Sie suchen eine Katze und wissen, dass sie sich zwischen Ihrem Haus und den Nachbarn befindet, die 1,6 km entfernt sind. Ihre Kinder sagen Ihnen, dass die Wahrscheinlichkeit, dass sich eine Katze auf der Strecke von Ihrem Haus befindet, am besten durch die Betaverteilung f ( x ; 2 , 2 ) beschrieben wird . So eine Katze wahrscheinlich in der Mitte, dh zwischen 0 und 1, aber könnte überall seine x m ein x = 1 / 2 .x f( x ; 2 , 2 )xm a x= 1 / 2
Fügen wir die Beta-Verteilung in Ihre Gleichung ein, dann erhalten Sie .H= - 0,125
Als nächstes fragst du deine Frau und sie sagt dir, dass die beste Verteilung, um ihr Wissen über deine Katze zu beschreiben, die Gleichverteilung ist. Wenn Sie es mit Ihrer Entropiegleichung verbinden, erhalten Sie .H= 0
Sowohl die Uniform- als auch die Betaverteilung lassen die Katze zwischen 0 und 1 Meilen von Ihrem Haus entfernt sein, aber es gibt mehr Unsicherheit in der Uniform, da Ihre Frau wirklich keine Ahnung hat, wo sich die Katze versteckt, während Kinder eine Ahnung haben , sie denken, dass es mehr ist wahrscheinlich irgendwo in der Mitte sein. Deshalb ist Betas Entropie niedriger als die von Uniform.
Sie könnten andere Distributionen versuchen, vielleicht Ihr Nachbar sagt , dass Sie die Katze mag in der Nähe von einem der Häuser sein, so dass seine Beta - Verteilung mit ist . Sein H muss wieder niedriger sein als das der Uniform, weil Sie eine Vorstellung davon haben, wo Sie nach einer Katze suchen müssen. Erraten Sie, ob die Informationsentropie Ihres Nachbarn höher oder niedriger ist als die Ihrer Kinder? Ich würde in diesen Angelegenheiten jeden Tag auf Kinder wetten.α = β= 1 / 2H
AKTUALISIEREN:
Wie funktioniert das? Eine Möglichkeit, dies zu sehen, besteht darin, mit einer einheitlichen Verteilung zu beginnen. Wenn Sie damit einverstanden sind, dass es das mit der größten Unsicherheit ist, dann denken Sie daran, es zu stören. Schauen wir uns der Einfachheit halber den diskreten Fall an. Nehmen von einem Punkt und fügen Sie es ein anderes wie folgt:
p ' i = p - Δ p p ' j = p + Δ pΔ p
p′ich= p - Δ p
p′j= p + Δ p
H- H′= pichlnpich- pichln( pich- Δ p ) + pjlnpj- pjln( pj+ Δ p )
= p lnp - p ln[ p ( 1 - & Dgr; p / p ) ] + p lnp - p ln[ p ( 1 + Δ p / p ) ]
= - ln( 1 - Δ p / p ) - ln( 1 + Δ p / p ) > 0
nn → ∞nn = 1n = 13
x = 0:0.01:1;
for k=1:5
i = 1 + (k-1)*3;
idx(k) = i;
f = @(x)bates_pdf(x,i);
funb=@(x)f(x).*log(f(x));
fun = @(x)arrayfun(funb,x);
h(k) = -integral(fun,0,1);
subplot(1,5+1,k)
plot(x,arrayfun(f,x))
title(['Bates(x,' num2str(i) ')'])
ylim([0 6])
end
subplot(1,5+1,5+1)
plot(idx,h)
title 'Entropy'