Ich versuche, einen Detektor für Objekte zu erstellen, die sehr selten vorkommen (in Bildern), und plane, einen binären CNN-Klassifikator zu verwenden, der in einem Schiebe- / Größenänderungsfenster angewendet wird. Ich habe ausgeglichene 1: 1-Positiv-Negativ-Trainings- und Testsätze erstellt (ist es in einem solchen Fall übrigens richtig?), Und der Klassifikator ist in Bezug auf die Genauigkeit bei einem Testsatz gut. Jetzt möchte ich den Rückruf / die Genauigkeit meines Klassifikators steuern, damit er beispielsweise nicht zu viele Vorkommen einer Mehrheitsklasse fälschlicherweise kennzeichnet.
Offensichtliche (für mich) Lösung besteht darin, denselben logistischen Verlust zu verwenden, der jetzt verwendet wird, aber Fehler vom Gewichtstyp I und Typ II unterschiedlich zu bewerten, indem der Verlust in einem der beiden Fälle mit einer Konstanten multipliziert wird, die eingestellt werden kann. Ist es richtig?
PS Bei einem zweiten Gedanken entspricht dies der Gewichtung einiger Trainingsmuster mehr als der anderen. Nur mehr von einer Klasse hinzuzufügen, wird das gleiche erreichen, denke ich.