Da die Wahrscheinlichkeit Element X ist f(x)dx, die Änderung der Variablen y=xσ+μ äquivalent zu x=(y−μ)/σ, woher aus
f(x)dx=f(y−μσ)d(y−μσ)=1σf(y−μσ)dy
Daraus folgt, dass die Dichte von Y ist
fY(y)=1σf(y−μσ).
Folglich ist die Entropie von Y ist ,
H(Y)=−∫∞−∞log(1σf(y−μσ))1σf(y−μσ)dy
die, bei der die Änderung der Variable zurück zu x=(y−μ)/σ, produziert
H(Y)=−∫∞−∞log(1σf(x))f(x)dx=−∫∞−∞(log(1σ)+log(f(x)))f(x)dx=log(σ)∫∞−∞f(x)dx−∫∞−∞log(f(x))f(x)dx=log(σ)+Hf.
Diese Berechnungen verwendeten grundlegende Eigenschaften des Logarithmus, die Linearität der Integration und die Tatsache, dass f(x)dx zur Einheit integriert wird (das Gesetz der Gesamtwahrscheinlichkeit).
Das Fazit ist
Die Entropie von Y=Xσ+μ ist die Entropie von X plus log(σ).
Mit anderen Worten, das Verschieben einer Zufallsvariablen ändert ihre Entropie nicht (wir können uns vorstellen, dass die Entropie von den Werten der Wahrscheinlichkeitsdichte abhängt, aber nicht von dem Ort, an dem diese Werte auftreten), während eine Variable skaliert wird (die für σ≥1 " streckt "oder" schmiert "es aus) erhöht seine Entropie um log(σ). Dies unterstützt die Intuition, dass Verteilungen mit hoher Entropie "weiter verbreitet" sind als Verteilungen mit niedriger Entropie.
Infolge dieses Ergebnisses können wir bei der Berechnung der Entropie einer beliebigen Verteilung bequeme Werte für μ und σ wählen . Beispielsweise kann die Entropie einer Normalverteilung (μ,σ) durch Setzen von μ=0 und σ=1. Der Logarithmus der Dichte ist in diesem Fall
log(f(x))=−12log(2π)−x2/2,
woher
H=−E[−12log(2π)−X2/2]=12log(2π)+12.
Folglich wird die Entropie einer Normalverteilung (μ,σ) einfach durch Addition von logσ zu diesem Ergebnis erhalten, was ergibt
H=12log(2π)+12+log(σ)=12log(2πeσ2)
wie von Wikipedia berichtet .