Ich beschäftige mich mit einem (kreditbewertungsähnlichen) Problem der Betrugserkennung. Insofern besteht ein sehr unausgewogenes Verhältnis zwischen betrügerischen und nicht betrügerischen Beobachtungen.
http://blog.revolutionanalytics.com/2016/03/com_class_eval_metrics_r.html bietet einen hervorragenden Überblick über verschiedene Klassifizierungsmetriken. Precision and Recall
oder kappa
beide scheinen eine gute Wahl zu sein:
Eine Möglichkeit, die Ergebnisse solcher Klassifikatoren zu rechtfertigen, besteht darin, sie mit denen von Basisklassifikatoren zu vergleichen und zu zeigen, dass sie tatsächlich besser sind als zufällige Zufallsvorhersagen.
Soweit ich weiß, kappa
könnte hier die etwas bessere Wahl sein, da zufällige Zufälle berücksichtigt werden. Aus Cohens Kappa in einfachem Englisch verstehe ich, dass es kappa
sich um das Konzept des Informationsgewinns handelt:
[...] eine beobachtete Genauigkeit von 80% ist mit einer erwarteten Genauigkeit von 75% viel weniger beeindruckend als mit einer erwarteten Genauigkeit von 50% [...]
Daher wären meine Fragen:
- Ist es richtig anzunehmen
kappa
, eine besser geeignete Klassifizierungsmetrik für dieses Problem zu sein? kappa
Verhindert die einfache Verwendung die negativen Auswirkungen eines Ungleichgewichts auf den Klassifizierungsalgorithmus? Ist noch eine erneute Stichprobenerhebung (Down / Up) oder kostenbasiertes Lernen (siehe http://www.icmc.usp.br/~mcmonard/public/laptec2002.pdf ) erforderlich?