Intuitive Erklärung von Logloss


9

In mehreren Kaggle-Wettbewerben basierte die Wertung auf "logloss". Dies bezieht sich auf einen Klassifizierungsfehler.

Hier ist eine technische Antwort, aber ich suche nach einer intuitiven Antwort. Die Antworten auf diese Frage zur Mahalanobis-Entfernung haben mir sehr gut gefallen , aber PCA ist kein logarithmischer Verlust.

Ich kann den Wert verwenden, den meine Klassifizierungssoftware ausgibt, aber ich verstehe ihn nicht wirklich. Warum verwenden wir es anstelle von wahren / falschen positiven / negativen Raten? Können Sie mir helfen, damit ich dies meiner Großmutter oder einem Neuling auf dem Gebiet erklären kann?

Ich mag auch und stimme dem Zitat zu:

Sie verstehen etwas nicht wirklich, es sei denn, Sie können es Ihrer Großmutter
- Albert Einstein - erklären

Ich habe versucht, dies selbst zu beantworten, bevor ich hier gepostet habe.

Zu den Links, die ich nicht intuitiv oder wirklich hilfreich fand, gehören:

Diese sind informativ und genau. Sie sind für ein technisches Publikum gedacht. Sie zeichnen kein einfaches Bild oder geben einfache und leicht zugängliche Beispiele. Sie sind nicht für meine Großmutter geschrieben.


Sie haben keinen Link zu Ihrer technischen Antwort angegeben
Bdeonovic


@ EhsanM.Kermani - Ich fand diese intuitiven wie die für Mahalanobis, auf die ich verwies, nicht.
EngrStudent

1
Der Eintrag auf der Kaggle-Website gibt eine ziemlich präzise Erklärung von Logloss
Bdeonovic

Diesen Link gefunden: exegetic.biz/blog/2015/12/making-sense-logarithmic-loss . Könnte helfen.
Deolu A

Antworten:


7

Logloss ist der Logarithmus des Produkts aller Wahrscheinlichkeiten. Angenommen, Alice hat vorausgesagt:

  • mit einer Wahrscheinlichkeit von 0,2 wird John Jack töten
  • Mit einer Wahrscheinlichkeit von 0,001 wird Mary John heiraten
  • Mit einer Wahrscheinlichkeit von 0,01 ist Bill ein Mörder.

Es stellte sich heraus, dass Mary John nicht heiratete, Bill ist kein Mörder, aber John hat Jack getötet. Das Produkt der Wahrscheinlichkeiten beträgt laut Alice 0,2 * 0,999 * 0,99 = 0,197802

Bob sagte voraus:

  • Mit einer Wahrscheinlichkeit von 0,5 wird John Jack töten
  • Mit einer Wahrscheinlichkeit von 0,5 wird Mary John heiraten
  • Mit einer Wahrscheinlichkeit von 0,5 ist Bill ein Mörder.

Das Produkt ist 0,5 · 0,5 · 0,5 = 0,125.

Alice ist ein besserer Prädiktor als Bob.


Warum funktioniert "Produkt aller Wahrscheinlichkeiten"? Dies klingt wie ein Verwandter der Erwartungsmaximierung.
EngrStudent

3
Benötigen Sie einen formellen Nachweis? Es ist in der "technischen Antwort", die vom Themenstarter erwähnt wird. Benötigen Sie einen informellen "Großmutter" Grund warum? Sie sagen: Angenommen, dieser Kerl hat korrekte Vorhersagen gemacht. Wie groß ist die Wahrscheinlichkeit, dass alles so passiert, wie es wirklich passiert ist? Dies ist das Produkt von Wahrscheinlichkeiten.
user31264

"Produkt der Wahrscheinlichkeiten" ist nicht "Oma". log of product of probabilities ist die Summe der log-Wahrscheinlichkeiten, die sie zur Erwartungsmaximierung verwenden und "Erwartung" nennen. Ich denke, es ist auch in KL-Divergenz codiert. ... Ich denke, im Oma-Gespräch könnte man sagen "" am wahrscheinlichsten "= höchste Gesamtwahrscheinlichkeit mehrerer Ereignisse. Es gibt zwei, die" am höchsten "sind: 1) Maximieren Sie die kombinierte Wahrscheinlichkeit oder 2) Minimieren Sie die negative kombinierte Wahrscheinlichkeit. Die meisten Maschinen Lernen mag "Gradientenabstieg" oder Minimieren von Schlechtigkeit. Log-Verlust ist die negative Wahrscheinlichkeit, die durch die Stichprobengröße skaliert wird, und sie wird minimiert.
EngrStudent

Hier Link sagen sie "exp (-loss) ist die durchschnittliche Wahrscheinlichkeit einer korrekten Vorhersage."
EngrStudent

Ich mochte den Bischofsreferenten hier . Es ist Gleichung 4.108 und ist die Kreuzentropiefehlerfunktion.
EngrStudent
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.