Eine gängige Methode zur Feststellung, ob ein Objektvorschlag richtig war, ist die Ermittlung von Schnittpunkten über Union (IoU, IU). Dies nimmt die Menge der vorgeschlagenen Objektpixel und die Menge der wahren Objektpixel B und berechnet:
Im Allgemeinen bedeutet IoU> 0,5, dass es ein Treffer war, ansonsten war es ein Fehlschlag. Für jede Klasse kann man das berechnen
- Wahre Positive ( ): ein Vorschlag für die Klasse gemacht c und es gab tatsächlich ein Objekt der Klasse c
- False Positive ( ): Es wurde ein Vorschlag für die Klasse c gemacht , aber es gibt kein Objekt der Klasse c
- Durchschnittliche Präzision für Klasse : # T P ( c )
Der mAP (Mean Average Precision) =
Wenn man bessere Vorschläge möchte, erhöht man die IoU von 0,5 auf einen höheren Wert (bis zu 1,0, was perfekt wäre). Man kann dies mit mAP @ p bezeichnen, wobei die IoU ist.
Aber was bedeutet mAP@[.5:.95]
(wie in diesem Artikel beschrieben )?
[.5:.95]
Teil bezieht sich auf einen Bereich von IoU-Werten, aber wie dieser Bereich in einem einzelnen mAP bewertet wird, würde ich nicht wissen.