Inverse Beziehung zwischen Präzision und Rückruf


10

Ich machte eine Suche, um Präzision und Rückruf zu lernen, und ich sah, dass einige Diagramme eine umgekehrte Beziehung zwischen Präzision und Rückruf darstellen, und begann darüber nachzudenken, um das Thema zu klären. Ich frage mich, ob die umgekehrte Beziehung immer gilt. Angenommen, ich habe ein binäres Klassifizierungsproblem und es gibt positiv und negativ gekennzeichnete Klassen. Nach dem Training werden einige der tatsächlichen positiven Beispiele als echte Positive und einige als falsche Negative und einige der tatsächlichen negativen Beispiele als echte Negative und einige als falsche Positive vorhergesagt. Zur Berechnung der Präzision und erinnere ich diese Formeln: und Wenn ich falsch - negative Ergebnisse dann richtig Positiven erhöht und in diesem Fall don verringern‘ t Präzision und Rückruf erhöhen sich?

P.recichsichÖn=T.P.T.P.+F.P.
R.eceinll=T.P.T.P.+F.N.

Antworten:


6

Wenn wir das falsche Negativ verringern (mehr Positive auswählen), erhöht sich der Rückruf immer, aber die Genauigkeit kann zunehmen oder abnehmen. Im Allgemeinen haben Präzision und Rückruf für Modelle, die besser als zufällig sind, eine umgekehrte Beziehung ( Antwort von @pythinker ), aber für Modelle, die schlechter als zufällig sind, eine direkte Beziehung ( Beispiel von @kbrose ).

Es ist erwähnenswert, dass wir künstlich eine Stichprobe erstellen können, die bewirkt, dass ein Modell, das bei wahrer Verteilung besser als zufällig ist, schlechter als zufällig abschneidet. Daher gehen wir davon aus, dass die Stichprobe der wahren Verteilung ähnelt.

Erinnern

Wir haben daher wäre der Rückruf was immer mit der Abnahme von zunimmt .

T.P.=P.- -F.N.
r=P.- -F.N.P.=1- -F.N.P.
F.N.

Präzision

Aus Gründen der Genauigkeit ist die Beziehung nicht so einfach. Beginnen wir mit zwei Beispielen.

Erster Fall : Abnahme der Präzision durch Abnahme des falsch negativen:

label   model prediction
1       0.8
0       0.2
0       0.2
1       0.2

Für den Schwellenwert (falsch negativ = ),0,5{(1,0,2)}}

p=11+0=1

Für den Schwellenwert (falsch negativ = )0.0{}}

p=22+2=0,5

Zweiter Fall : Erhöhung der Präzision durch Verringerung des falsch negativen Werts (wie im Beispiel @kbrose ):

label   model prediction
0       1.0
1       0.4
0       0.1

Für den Schwellenwert (falsch negativ = ),0,5{(1,0,4)}}

p=00+1=0

Für den Schwellenwert (falsch negativ = )0.0{}}

p=11+2=0,33

Es ist erwähnenswert, dass die ROC-Kurve für diesen Fall ist

Präzisionsanalyse basierend auf der ROC-Kurve

Wenn wir den Schwellenwert senken, nimmt falsch negativ ab und wahr positiv [Rate] nimmt zu, was einer Bewegung nach rechts im ROC-Diagramm entspricht . Ich habe eine Simulation für Modelle durchgeführt, die besser als zufällig, zufällig und schlechter als zufällig sind, und ROC, Rückruf und Präzision aufgezeichnet:

Wie Sie sehen können, nimmt die Genauigkeit bei einem Modell, das besser als zufällig ist, erheblich ab, wenn Sie sich nach rechts bewegen. Bei einem zufälligen Modell weist die Genauigkeit erhebliche Schwankungen auf und bei einem Modell, das schlechter als zufällig ist, nimmt die Genauigkeit zu. In allen drei Fällen gibt es leichte Schwankungen. Deshalb,

Wenn das Modell durch Erhöhen des Rückrufs besser als zufällig ist, nimmt die Genauigkeit im Allgemeinen ab. Wenn der Modus schlechter als zufällig ist, erhöht sich die Genauigkeit im Allgemeinen.

Hier ist der Code für die Simulation:

import numpy as np
from sklearn.metrics import roc_curve
from matplotlib import pyplot

np.random.seed(123)
count = 2000
P = int(count * 0.5)
N = count - P
# first half zero, second half one
y_true = np.concatenate((np.zeros((N, 1)), np.ones((P, 1))))

title = 'Better-than-random model'
# title = 'Random model'
# title = 'Worse-than-random model'
if title == 'Better-than-random model':
    # GOOD: model output increases from 0 to 1 with noise
    y_score = np.array([p + np.random.randint(-1000, 1000)/3000
                        for p in np.arange(0, 1, 1.0 / count)]).reshape((-1, 1))
elif title == 'Random model':
    # RANDOM: model output is purely random
    y_score = np.array([np.random.randint(-1000, 1000)/3000
                        for p in np.arange(0, 1, 1.0 / count)]).reshape((-1, 1))
elif title == 'Worse-than-random model':
    # SUB RANDOM: model output decreases from 0 to -1 (worse than random)
    y_score = np.array([-p + np.random.randint(-1000, 1000)/1000
                        for p in np.arange(0, 1, 1.0 / count)]).reshape((-1, 1))

# calculate ROC (fpr, tpr) points
fpr, tpr, thresholds = roc_curve(y_true, y_score)
# calculate recall, precision, and accuracy for corresponding thresholds
# recall = TP / P
recall = np.array([np.sum(y_true[y_score > t])/P
                   for t in thresholds]).reshape((-1, 1))
# precision = TP / (TP + FP)
precision = np.array([np.sum(y_true[y_score > t])/np.count_nonzero(y_score > t)
                      for t in thresholds]).reshape((-1, 1))
# accuracy = (TP + TN) / (P + N)
accuracy = np.array([(np.sum(y_true[y_score > t]) + np.sum(1 - y_true[y_score < t]))
                     /len(y_score)
                      for t in thresholds]).reshape((-1, 1))

# Sort performance measures from min tpr to max tpr
index = np.argsort(tpr)
tpr_sorted = tpr[index]
recall_sorted = recall[index]
precision_sorted = precision[index]
accuracy_sorted = accuracy[index]

# visualize
fig, ax = pyplot.subplots(3, 1)
fig.suptitle(title, fontsize=12)

line = np.arange(0, len(thresholds))/len(thresholds)
ax[0].plot(fpr, tpr, label='ROC', color='purple')
ax[0].plot(line, line, '--', label='random', color='black')
ax[0].set_xlabel('fpr')
ax[0].legend(loc='center left', bbox_to_anchor=(1, 0.5))
ax[1].plot(line, recall, label='recall', color='blue')
ax[1].plot(line, precision, label='precision', color='red')
ax[1].plot(line, accuracy, label='accuracy', color='black')
ax[1].set_xlabel('1 - threshold')
ax[1].legend(loc='center left', bbox_to_anchor=(1, 0.5))
ax[2].plot(tpr_sorted, recall_sorted, label='recall', color='blue')
ax[2].plot(tpr_sorted, precision_sorted, label='precision', color='red')
ax[2].plot(tpr_sorted, accuracy_sorted, label='accuracy', color='black')
ax[2].set_xlabel('tpr (1 - fnr)')
ax[2].legend(loc='center left', bbox_to_anchor=(1, 0.5))

fig.tight_layout()
fig.subplots_adjust(top=0.88)
pyplot.show()

Wenn also zufällige Phänomene vollständig regieren, wird in der Praxis beobachtet, dass sie im Allgemeinen eine umgekehrte Beziehung haben. Es gibt verschiedene Situationen, aber können wir allgemein sagen, wenn wir die Genauigkeit erhöhen, bedeutet dies, dass wir negative Beispiele genauer vorhersagen, und wenn wir den Rückruf erhöhen, bedeutet dies, dass wir positive Beispiele genauer vorhersagen?
Tolga Karahan

@ TolgaKarahan Zuerst müssen wir "genauer" in Bezug auf TN, TP usw. definieren. Zum Beispiel gilt "Genauigkeit" sowohl für Positive als auch für Negative, dh (TP + TN / P + N), die ich zu den Plots hinzugefügt habe. Es gibt einen Anstieg und einen Rückgang für Modelle, die besser als zufällig sind.
Esmailian

Ich meine das Verhältnis von korrekt vorhergesagten Etiketten zu allen Etiketten für eine bestimmte Klasse. Wie TP / P oder TN / N. Wenn ich die Genauigkeit erhöhe, werden negative Beispiele mit zunehmender TN / N genauer vorhergesagt?
Tolga Karahan

@ TolgaKarahan Aha. Bei Modellen, die besser als zufällig sind, bedeutet eine Erhöhung der Genauigkeit eine Verringerung des Rückrufs (und umgekehrt), dh eine Verringerung des TP / P (P = TP + FN). Für TN / N wissen wir, wenn der Schwellenwert erhöht wird (Abnahme des Rückrufs), dass sowohl TP als auch FP abnehmen, da wir weniger positive auswählen, wodurch FP / N abnimmt und 1 - FP / N = TN / N zunimmt . Die Antwort auf Ihre Frage lautet also Ja.
Esmailian

Das ist gut. Wenn ich TP / P als positiven Rückruf und TN / N als negativen Rückruf definiere, dann nehme ich an, dass ich mit zunehmender Genauigkeit den negativen Rückruf und mit zunehmendem Rückruf erhöhe, weil es dasselbe ist, dass ich auch den positiven Rückruf erhöhe. Es scheint also eine Frage der zunehmenden negativen oder positiven Erinnerung zu sein, und welche für mich wichtiger ist.
Tolga Karahan

3

Sie sind richtig @ Tolga, beide können gleichzeitig erhöhen. Betrachten Sie die folgenden Daten:

Prediction | True Class
       1.0 | 0
       0.5 | 1
       0.0 | 0

Wenn Sie Ihren Grenzwert auf 0,75 einstellen, haben Sie

P.recichsichÖn=T.P.T.P.+F.P.=00+1=0
R.eceinll=T.P.T.P.+F.N.=00+1=0

Wenn Sie dann Ihren Grenzwert auf 0,25 verringern, haben Sie

P.recichsichÖn=T.P.T.P.+F.P.=11+1=0,5
R.eceinll=T.P.T.P.+F.N.=11+0=1

und so können Sie sehen, dass sowohl die Präzision als auch der Rückruf zunahmen, als wir die Anzahl der falsch negativen Ergebnisse verringerten.


1
Vielen Dank. Die Verteilung von Daten scheint so wichtig zu sein, und das ist natürlich nicht überraschend.
Tolga Karahan

Aber Sie müssen immer noch realistisch sein. Es ist unwahrscheinlich, dass Sie die Anzahl der falsch negativen Ergebnisse verringern können, ohne die Anzahl der falsch positiven Ergebnisse zu erhöhen.
Pedro Henrique Monforte

Sie geben keine Daten und kein Argument an, um Ihren Anspruch zu stützen. Ich gebe ein Beispiel, das genau zeigt, warum die Aussage des OP korrekt ist. Und ich bin derjenige, der realistisch sein muss. "Ja wirklich?"
Kbrose

3

Vielen Dank für die klare Darstellung des Problems. Der Punkt ist, dass Sie, wenn Sie falsch negative Ergebnisse verringern möchten, den Schwellenwert Ihrer Entscheidungsfunktion ausreichend senken sollten. Wenn die falsch-negativen Werte verringert werden, wie Sie bereits erwähnt haben, nehmen die wahr-positiven Werte zu, aber auch die falsch-positiven Werte können zunehmen. Infolgedessen nimmt der Rückruf zu und die Genauigkeit ab.


1
Ich habe gerade dieses Thema gelernt und es scheint, dass ich Gleichungen zu sehr fokussiert habe, wobei die Auswirkungen eines Modellwechsels vernachlässigt wurden. Diese Erklärung half, die Dinge zu klären. Vielen Dank.
Tolga Karahan

@ TolgaKarahanSie sind willkommen. Ich freue mich sehr, dass meine Antwort geholfen hat.
Pythoninker

Das ist falsch. Siehe meine Antwort.
Kbrose
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.