Ich habe Daten mit 2 Klassen, für die ich eine Klassifizierung mit mehreren Klassifizierern durchführe. Und die Datensätze sind gut ausbalanciert. Bei der Beurteilung der Leistung der Klassifikatoren muss berücksichtigt werden, wie genau der Klassifikator nicht nur die wahren Positiven, sondern auch die wahren Negative bestimmt. Wenn ich Genauigkeit verwende und der Klassifikator auf Positives ausgerichtet ist und alles als positiv klassifiziert, erhalte ich daher eine Genauigkeit von etwa 50%, obwohl es nicht gelungen ist, echte Negative zu klassifizieren. Diese Eigenschaft wird auf Präzision und Rückruf erweitert, da sie sich nur auf eine Klasse und damit auf die F1-Punktzahl konzentrieren. (Dies ist, was ich auch aus diesem Artikel verstehe, zum Beispiel " Jenseits von Genauigkeit, F-Score und ROC: eine Familie diskriminierender Maßnahmen zur Leistungsbewertung ").
Daher kann ich Sensitivität und Spezifität (TPR und TNR) verwenden, um zu sehen, wie sich der Klassifikator für jede Klasse verhält, wobei ich diese Werte maximieren möchte.
Meine Frage ist, dass ich nach einer Kennzahl suche, die beide Werte zu einer sinnvollen Kennzahl kombiniert . Ich habe mir die in diesem Papier vorgesehenen Maßnahmen angesehen, fand sie jedoch nicht trivial. Und aufgrund meines Verständnisses habe ich mich gefragt, warum wir so etwas wie den F-Score nicht anwenden können, aber anstatt Präzision und Erinnerung zu verwenden, würde ich Sensitivität und Spezifität verwenden? Die Formel wäre also und mein Ziel wäre es, diese Maßnahme zu maximieren. Ich finde es sehr repräsentativ. Gibt es schon eine ähnliche Formel? Und würde das Sinn machen oder ist es überhaupt mathematisch sinnvoll?