Ich stieß auf eine große Menge an Literatur, die sich dafür einsetzte, die Fisher-Informationsmetrik als natürliche lokale Metrik im Raum der Wahrscheinlichkeitsverteilungen zu verwenden und dann darüber zu integrieren, um Entfernungen und Volumina zu definieren.
Aber sind diese "integrierten" Größen tatsächlich für irgendetwas nützlich? Ich fand keine theoretischen Gründe und nur sehr wenige praktische Anwendungen. Eines ist Guy Lebanons Werk, bei dem er Dokumente anhand von "Fischers Entfernung" klassifiziert, und eines ist Rodriguez ' ABC der Modellauswahl ... wobei "Fischers Volumen" für die Modellauswahl verwendet wird. Anscheinend führt die Verwendung von "Informationsvolumen" zu einer Verbesserung von "Größenordnungen" gegenüber AIC und BIC bei der Modellauswahl, aber ich habe keine Folgemaßnahmen zu dieser Arbeit gesehen.
Eine theoretische Rechtfertigung könnte darin bestehen, eine Verallgemeinerungsgrenze zu haben, die dieses Maß für Abstand oder Volumen verwendet und besser ist als die aus MDL oder asymptotischen Argumenten abgeleiteten Grenzen, oder eine Methode, die sich auf eine dieser Größen stützt, die in einer vernünftigerweise praktischen Situation nachweislich besser ist irgendwelche Ergebnisse dieser Art?