Ich absolviere einen Computer-Vision-Kurs und habe diese Übung: Schreiben Sie ein Programm, das anhand eines Handbilds erkennt, ob die Hand offen, geschlossen, in einem Schlag oder in einer "OK" -Haltung ist, indem Sie nur die verwenden Bisher bereitgestellte Techniken (Pixel 4/8 verbunden, verbundener Bereich, Konturfindung, Lochsuche, Blob-Eigenschaft wie Schwerpunkt, Fläche, Umfang, Exzentrizität, Bildmomente, Bildtransformation wie Invertieren / Leistung / Log / Gammakorrektur / Kontrastdehnung, Histogramm Berechnung und Entzerrung).
Ich habe es mit einigen grundlegenden Blob-Eigenschaften gemacht (geschlossene Hand hat eine geringe Exzentrizität, "ok" hat ein Loch, offene Hand hat einen großen Unterschied zwischen dem Bereich der eingeschriebenen Ellipse im Blob und dem Blob-Bereich selbst mit einer geringen Exzentrizität) Es scheint zu funktionieren, aber das erste Bild ist ein bisschen problematisch.
Ich denke, es könnte etwas mehr geben, um einen robusteren Algorithmus zu entwickeln. Vielleicht eine Art Moment Eigentum? Könnten einige Blob-Achsen / Orientierungen / Extrempunkte helfen?
PS-Testbilder: