Ich versuche, die normalisierte Form der punktuellen gegenseitigen Information zu verstehen.
Warum normalisiert die logarithmische Gelenkwahrscheinlichkeit die punktweise gegenseitige Information auf [-1, 1]?
Die punktuelle gegenseitige Information ist:
p (x, y) ist durch [0, 1] begrenzt, so dass log (p (x, y)) durch (, 0] begrenzt ist. Es scheint, als sollte das log (p (x, y)) Änderungen in irgendwie ausgleichen der Zähler, aber ich verstehe nicht genau wie. Es erinnert mich auch an die Entropie , aber auch hier verstehe ich die genaue Beziehung nicht.