Die Renyi-Entropie ist in gewissem Sinne analog zu -norms. Erinnern wir uns also zunächst, warum diese Normen nützlich sind.ℓp
Angenommen, wir haben einen Vektor von Zahlen . Wir wollen eine einzige Zahl haben , die in einem gewissen Sinne darstellt, wie funktioniert das typische Element einer aussehen.a∈Rna
Eine Möglichkeit besteht darin, den Durchschnitt der Zahlen in , der ungefähr der ℓ 1- Norm entspricht: E 1 ≤ i ≤ n [ | a i | ] . Dies ist oft nützlich, hat aber für einige Anwendungen die folgenden Probleme: Erstens gibt uns die ℓ 1- Norm keine gute Obergrenze für das größte Element von a , denn wenn es ein einzelnes großes Element und viele Nullen gibt, das ℓ 1 Norm ist deutlich kleiner als das größte Element. Auf der anderen Seite ist die ℓ 1aℓ1E1≤i≤n[|ai|]ℓ1aℓ1ℓ1Norm gibt uns auch keine gute Grenze dafür, wie klein die Elemente von sind, zum Beispiel wie viele Nullen a hat - dieses Problem tritt in genau demselben Szenario wie zuvor auf.aa
Wenn die Elemente von sehr unterschiedlich sind, wie im obigen Extremszenario, kann natürlich keine einzelne Zahl beide oben genannten Probleme lösen. Wir haben einen Kompromiss. Zum Beispiel, wenn wir das größte Element nur wissen wollen, können wir die Verwendung l ∞ Norm, aber dann werden wir alle Informationen über die kleineren Elemente verlieren. Wenn wir die Anzahl der Nullen wollen, können wir uns die ℓ 0- Norm ansehen , die genau die Größe der Unterstützung von a ist .aℓ∞ℓ0a
Der Grund für die Betrachtung von Normen ist, dass sie uns den gesamten ständigen Kompromiss zwischen den beiden Extremen ermöglichen. Wenn wir mehr Informationen über die großen Elemente wünschen, nehmen wir an, dass p größer ist und umgekehrt.ℓpp
Gleiches gilt für Renyi-Entropien: Shanons Entropie entspricht der Norm - sie sagt etwas über die "typische" Wahrscheinlichkeit eines Elements aus, aber nichts über die Varianz oder die Extreme. Die Minentropie gibt uns Informationen über das Element mit der größten Wahrscheinlichkeit, verliert jedoch alle Informationen über den Rest. Die Stützgröße gibt das andere Extrem an. Die Renyi-Entropien bieten uns einen ständigen Kompromiss zwischen den beiden Extremen.ℓ1
Zum Beispiel ist die Renyi-2-Entropie oft nützlich, weil sie einerseits nahe an der Entropie von Shanon liegt und somit Informationen zu allen Elementen der Verteilung enthält und andererseits mehr Informationen zu den Elementen mit den größten Elementen liefert Wahrscheinlichkeit. Insbesondere ist bekannt, dass Grenzen für die Renyi-2-Entropie Grenzen für die Min-Entropie ergeben, siehe z. B. Anhang A hier: http://people.seas.harvard.edu/~salil/research/conductors-prelim .ps