Ich bin ein neuer Typ in Bildverarbeitung und Computer Vision, daher könnte diese Frage für Sie dumm sein.
Ich habe gerade einige Algorithmen zur Erkennung und Beschreibung von Merkmalen gelernt, wie Harris, Hessian, SIFT, SURF . Sie verarbeiten Bilder, um diese Schlüsselpunkte herauszufinden, und berechnen dann für jeden einen Deskriptor . Der Deskriptor wird für den Merkmalsabgleich verwendet.
Ich habe SIFT und SURF ausprobiert und festgestellt, dass sie nicht so robust sind, wie ich dachte, da sie für 2 Bilder (eines ist ein wenig gedreht und affiniert) nicht gut zu den Merkmalen passen, unter fast 100 Merkmalspunkten nur 10 Übereinstimmungen sind gut.
Also frage ich mich
Wofür können wir diese Merkmalserkennungsalgorithmen in der Praxis verwenden? Gibt es robustere Algorithmen zur Erkennung und Anpassung von Merkmalen? Oder SIFT und SURF ist schon gut, ich muss es nur für die weitere Verwendung verfeinern?
Ein weiteres Problem ist, dass ich dachte, diese Algorithmen sind nicht für Echtzeitanwendungen geeignet (ohne Berücksichtigung der Multi-Core-Implementierung), aber es gibt einige kommerzielle Produkte (wie Kinect), die in Echtzeit funktionieren und reagieren! Ich gehe davon aus diesen Produkten auch erkennen und Match - Funktion von dem, was sie sehen , haben sie die Algorithmen verwenden wie SIFT ? Wie konnten sie Merkmale so gut erkennen?
Mit meinem begrenzten Wissen weiß ich, dass Feature Matching verwendet werden kann, um dieselben Objekte in zwei Bildern herauszufinden oder Homografien zu schätzen, aber einen anderen Zweck für Feature Feature Matching?