Ich habe Probleme, eine Intuition über die gemeinsame Entropie aufzubauen. = Unsicherheit in der gemeinsamen Verteilung ; = Unsicherheit in ; = Unsicherheit in .
Wenn H (X) hoch ist, ist die Verteilung unsicherer und wenn Sie das Ergebnis einer solchen Verteilung kennen, haben Sie mehr Informationen! H (X) quantifiziert also auch Informationen.
Jetzt können wir
Wenn Sie jedoch , können Sie und sodass in gewissem Sinne mehr Informationen enthält als und . Ist die Unsicherheit in Bezug auf p (x, y) größer als die Summe der einzelnen Unsicherheiten?