Ich arbeite an einem Problem der binären Klassifizierung, bei dem es viel wichtiger ist, keine falsch positiven Ergebnisse zu erzielen. ziemlich viele falsche Negative sind in Ordnung. Ich habe zum Beispiel eine Reihe von Klassifikatoren in sklearn verwendet, aber ich denke, keiner von ihnen hat die Möglichkeit, den Kompromiss zwischen Präzisionsrückruf explizit anzupassen (sie liefern ziemlich gute Ergebnisse, sind aber nicht einstellbar).
Welche Klassifikatoren haben eine einstellbare Präzision / Rückruf? Gibt es eine Möglichkeit, den Präzisions- / Rückruf-Kompromiss bei Standardklassifizierern wie Random Forest oder AdaBoost zu beeinflussen?