Diese Frage gibt eine quantitative Definition der Kreuzentropie in Bezug auf ihre Formel.
Ich suche nach einer eher fiktiven Definition, sagt Wikipedia:
In der Informationstheorie misst die Kreuzentropie zwischen zwei Wahrscheinlichkeitsverteilungen die durchschnittliche Anzahl von Bits, die zum Identifizieren eines Ereignisses aus einer Menge von Möglichkeiten erforderlich sind, wenn ein Codierungsschema auf der Grundlage einer gegebenen Wahrscheinlichkeitsverteilung q anstelle der "wahren" Verteilung p verwendet wird .
Ich habe den Teil betont, der mir Schwierigkeiten bereitet, dies zu verstehen. Ich hätte gerne eine nette Definition, die kein separates (bereits vorhandenes) Verständnis von Entropy erfordert.