Die obigen Antworten sind beide gut.
Ich möchte jedoch darauf hinweisen, dass AUC (Area under ROC) problematisch ist, insbesondere, wenn die Daten unausgewogen sind (so genannte stark verzerrte Werte: ist groß). Diese Art von Situationen ist bei der Erkennung von Handlungen, Betrugsfällen und Konkursvorhersagen sehr verbreitet. Das heißt, die positiven Beispiele, die Sie interessieren, weisen relativ niedrige Auftrittsraten auf.Sk e w = n e ga t i v ee x a m p l e sp o s i t i v ee x a m p l e s
Bei unausgeglichenen Daten gibt Ihnen die AUC immer noch einen Scheinwert um 0,8. Es ist jedoch eher aufgrund der großen FP als aufgrund der großen TP (True Positive) hoch.
Wie im folgenden Beispiel,
TP=155, FN=182
FP=84049, TN=34088
Wenn Sie also AUC verwenden, um die Leistung des Klassifikators zu messen, besteht das Problem darin, dass die Erhöhung der AUC keinen besseren Klassifikator widerspiegelt. Es ist nur der Nebeneffekt von zu vielen negativen Beispielen. Sie können einfach in Ihrem Datensatz versuchen.
In dem Artikel mit Empfehlungen zu unausgeglichenen Daten für die Verwendung von Leistungsmetriken wurde festgestellt, dass "während der ROC nicht durch Versatz beeinflusst wurde, die Präzisionsrückrufkurven darauf hindeuten, dass der ROC in einigen Fällen eine schlechte Leistung maskieren kann". Die Suche nach einer guten Leistungsmetrik ist immer noch eine offene Frage. Ein allgemeiner F1-Score kann helfen,
Fβ= ( 1 + β2) ⋅ p r e c i s i o n ⋅ r e c a l l( β2⋅ p r e c i s i o n ) + r e c a l l
Dabei ist die relative Bedeutung der Genauigkeit im Vergleich zum Rückruf.β
Dann sind meine Vorschläge für unausgewogene Daten ähnlich wie in diesem Beitrag . Sie können auch die Dekiliertabelle ausprobieren, die durch Durchsuchen von "Zwei-mal-Zwei-Klassifizierungs- und Dekiliertabellen" erstellt werden kann. In der Zwischenzeit beschäftige ich mich auch mit diesem Problem und werde bessere Maßstäbe setzen.