Was ist das Maß für die Genauigkeit von Multilabel-Daten?


25

Stellen Sie sich ein Szenario vor, in dem Sie mit KnownLabel Matrix und PredictedLabel Matrix ausgestattet sind. Ich möchte die Güte der PredictedLabel-Matrix mit der KnownLabel-Matrix vergleichen.

Die Herausforderung hierbei ist jedoch, dass die KnownLabel-Matrix nur wenige Zeilen mit einer 1 und die anderen wenigen Zeilen mit vielen Einsen hat (diese Instanzen sind mehrfach beschriftet). Ein Beispiel für die KnownLabel-Matrix ist unten angegeben.

A =[1 0 0 0
    0 1 0 0
    0 1 1 0
    0 0 1 1
    0 1 1 1]

In der obigen Matrix sind Dateninstanz 1 und 2 Einzeletikettendaten, Dateninstanz 3 und 4 sind Zweietikettendaten und Dateninstanz 5 sind die Dreietikettendaten.

Jetzt habe ich PredictedLabel Matrix der Dateninstanz unter Verwendung eines Algorithmus.

Ich möchte verschiedene Maße kennen, mit denen die Güte der PredictedLabel-Matrix gegenüber der KnownLabel-Matrix gemessen werden kann.

Ich kann mir Frobeinus-Normunterschiede zwischen ihnen als eine der Maßnahmen vorstellen. Aber ich suche nach dem Maß wie Genauigkeit(=Richtig_vorhersehbare_Instanztotal_instance)

Wie können wir hier die für mehrere Dateninstanzen definieren ?COrrectly_predichcted


5
(+1) Nebenbemerkung: Gibt es einen bestimmten Grund, warum Sie bei den meisten Ihrer Fragen keine Antwort akzeptiert haben? Warum haben Sie keinen Kommentar gepostet, als die angegebene Antwort Ihr Problem nicht gelöst hat? Beispiel: stats.stackexchange.com/questions/9947/…
steffen

Antworten:


23

(1) gibt einen schönen Überblick:

Bildbeschreibung hier eingeben

Bildbeschreibung hier eingeben

Die Wikipedia-Seite n Multi-Label-Klassifizierung enthält auch einen Abschnitt zu den Bewertungsmetriken.

Ich möchte eine Warnung hinzufügen, die besagt, dass die Genauigkeit in der Multilabel-Einstellung nicht eindeutig ist: Sie kann sich entweder auf das genaue Übereinstimmungsverhältnis oder den Hamming-Score beziehen (siehe diesen Beitrag ). Leider verwenden viele Artikel den Begriff "Genauigkeit".


(1) Sorower, Mohammad S. " Eine Literaturübersicht über Algorithmen für das Lernen mit mehreren Bezeichnungen. " Oregon State University, Corvallis (2010).


2
Widersprechen diese Definitionen den allgemeinen Definitionen für Präzision und Rückruf? Ich habe immer gelesen, dass Präzision durch TP + FP dividieren und Erinnerung durch TP + FN dividieren sollte (die hier vorgeschlagenen Definitionen machen das Gegenteil, wenn ich es richtig verstanden habe).
Tomasyany

Y.ichY.={0,1}kichZich=h(xich)={0,1}khY.ichZich

accuracyWie gehen Sie für das Maß elegant mit Fällen um, in denen der Nenner steht |Y + Z| == 0?
Ihadanny

3
@tomasyany bezieht sich auf die Textdefinitionen (nicht auf die Formeln), die scheinbar vertauscht sind.
Narfanar

Und diese AP-Definition sieht eher aus wie mAP (Mean AP), oder? Was als "Genauigkeit" bezeichnet wird, ist die durchschnittliche IoU. Die Begriffe sind insgesamt ziemlich verwirrend.
Narfanar


3

Correctly Predictedist der Schnittpunkt zwischen der Menge der vorgeschlagenen Beschriftungen und der Menge der erwarteten Beschriftungen. Total Instancesist die Vereinigung der obigen Mengen (keine doppelte Anzahl).

Geben Sie also ein einzelnes Beispiel an, in dem Sie Klassen vorhersagen A, G, Eund der Testfall E, A, H, Pdie richtigen hat, mit denen Sie endenAccuracy = Intersection{(A,G,E), (E,A,H,P)} / Union{(A,G,E), (E,A,H,P)} = 2 / 5

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.