Antworten:
Cover und Thomas 'Buch Elements of Information Theory ist eine gute Quelle für Entropie und ihre Anwendungen, obwohl ich nicht weiß, dass es genau die Themen behandelt, die Sie im Sinn haben.
Diese Vorlesungsunterlagen zur Informationstheorie von O. Johnson enthalten eine gute Einführung in verschiedene Arten von Entropie.
Wenn Sie sich für die mathematische Statistik rund um die Entropie interessieren, können Sie dieses Buch konsultieren
http://www.renyi.hu/~csiszar/Publications/Information_Theory_and_Statistics:_A_Tutorial.pdf
es ist frei verfügbar!
Die Entropie ist nur eine (als Konzept) - die Informationsmenge, die benötigt wird, um ein System zu beschreiben; Es gibt nur viele Verallgemeinerungen. Die Probenentropie ist nur ein entropieähnlicher Deskriptor, der bei der Herzfrequenzanalyse verwendet wird.
In Grünwalds und Dawids Arbeit Spieltheorie, maximale Entropie, minimale Diskrepanz und robuste Bayes'sche Entscheidungstheorie werden Verallgemeinerungen des traditionellen Entropiebegriffs diskutiert. Bei einem Verlust ist die zugehörige Entropiefunktion die Abbildung von einer Verteilung auf den minimal erreichbaren erwarteten Verlust für diese Verteilung. Die übliche Entropiefunktion ist die verallgemeinerte Entropie, die mit dem logarithmischen Verlust verbunden ist. Andere Auswahlmöglichkeiten für Verluste ergeben eine andere Entropie, wie beispielsweise die Rényi-Entropie.