Ich vergleiche zwei Verteilungen mit der KL-Divergenz, die mir eine nicht standardisierte Zahl zurückgibt, die nach dem, was ich über diese Kennzahl gelesen habe, die Informationsmenge ist, die erforderlich ist, um eine Hypothese in die andere umzuwandeln. Ich habe zwei Fragen:
a) Gibt es eine Möglichkeit, eine KL-Divergenz so zu quantifizieren, dass sie aussagekräftiger interpretiert wird, z. B. wie eine Effektgröße oder ein R ^ 2? Jede Form von Standardisierung?
b) In R kann bei Verwendung von KLdiv (Flexmix-Paket) der 'esp'-Wert (Standard esp = 1e-4) festgelegt werden, der alle Punkte kleiner als esp auf einen Standard setzt, um numerische Stabilität zu gewährleisten. Ich habe mit verschiedenen esp-Werten gespielt und für meinen Datensatz erhalte ich eine zunehmend größere KL-Divergenz, je kleiner eine Zahl ist, die ich auswähle. Was ist los? Ich würde erwarten, dass die Ergebnisse umso zuverlässiger sind, je kleiner der esp ist, da sie mehr „reale Werte“ in die Statistik einfließen lassen. Nein? Ich muss das esp ändern, da es sonst die Statistik nicht berechnet sondern einfach als NA in der Ergebnistabelle auftaucht ...