Vorverarbeitung zur Verbesserung der Harris-Eckenverfolgung zwischen Videobildern?


8

In unserer unbemannten Graustufen-Videobildstabilisierungsanwendung für Luftfahrzeuge haben wir Schwierigkeiten, die "guten" Harris-Ecken in Bild N + 1 zu finden, die aus Bild N ausgewählt wurden. Die Ursache der Schwierigkeit scheinen radikale ungleichmäßige Pixelkontraständerungen zwischen Bildern zu sein. Vielleicht ist es die Hauptursache für die Verschiebung des Pixelkontrasts, in der Luft zu sein und eine langsame Bildrate (~ 3 fps) zu verwenden.

Wir haben verschiedene Histogramm-Entzerrungstechniken ausprobiert, um die Pixelkontraste zwischen Frames auszugleichen, um die Verfolgung "guter" Harris-Ecken in Frame N + 1 zu verbessern. Die Ergebnisse sind weiterhin schlecht.

Hat jemand Vorschläge, wie die Harris-Eckverfolgung zwischen Videobildern in einer Tagesumgebung mit langsamer Bildrate verbessert werden kann? Vielen Dank im Voraus.

Bearbeiten: 30. Januar 2012, Testfallbilder (nicht tatsächliche Bildgröße) hinzugefügt

Zusammenfassung Update: 8. Februar 2012. Die Leute schlagen vor, dass Harris-Ecken bei der Verfolgung von Graustufen-Videofunktionen nicht so nützlich sind. Die folgenden Antworten schlagen vor und bieten Links zu verschiedenen Alternativen. Wir prüfen diese Alternativen und ich werde die Ergebnisse melden, wenn wir an diesem Punkt angelangt sind. Vielen Dank für Ihre Kommentare und Antworten.

Hier ist der vorherige Rahmen N mit 35 "guten" 5x5 Harris Ecken ausgewählt. Der ursprüngliche Rahmen besteht aus 8 bpp Rohpixeln.

vorheriger Frame N.

Hier ist eine ausgezeichnete 5x5 Harris-Ecke in Reihe 59, Spalte 266:

vorherige 5x5 bei r59 c266

Der aktuelle Frame N + 1 mit einigen verfolgten 5x5 Harris-Ecken, von denen nur eine gültig ist:

aktueller Frame N + 1

Die vorherige 5x5 Harris-Ecke von Frame erscheint in Frame N + 1 bei r47 c145:

vorherige 5x5 bei aktuellen 5x5 r47 c145

Beachten Sie, wie sich die Pixelintensitäten in den ausgewählten 5x5 vom vorherigen Frame zum aktuellen Frame ungleichmäßig geändert haben. Kontrastentzerrungstechniken zwischen Frames helfen nicht beim Erkennen von 5 x 5 Pixeln, die im aktuellen Frame ausgewählt wurden. Alle Vorschläge sind willkommen.


3
Bitte laden Sie ein paar Bilder hoch. Andernfalls erhalten Sie zufällige Vorschläge.
Nav

Wird besorgt. Entschuldigung, daran hätte ich denken sollen.
David Pointer

@nav Fertig! Vielen Dank für Ihren ausgezeichneten Vorschlag.
David Pointer

Antworten:


9

Können Sie einen anderen Funktionsdetektor ausprobieren? FAST kann, erm, schneller, und eine höhere Bildrate leichter passende machen (Ihre Funktionen werden unter der Annahme , eine Menge zwischen Rahmen bewegen)


Sieht so aus, als würden Sie versuchen, den Graustufenbereich um den identifizierten Feature-Punkt so zu verwenden, dass er von Bild zu Bild übereinstimmt. Dies ist wahrscheinlich schlecht, insbesondere wenn sich zwischen den Frames viel bewegt.

Sie können eine bessere Leistung erzielen, indem Sie einen so genannten "Deskriptor" für die Region um den Feature-Punkt verwenden, für den eine Übereinstimmung erzielt werden soll.

Einige mögliche Deskriptoren werden in den SURF- und SIFT- Algorithmen verwendet. Sie verfügen auch über Techniken zum Identifizieren der zu verfolgenden Regionen, aber Sie haben die Anforderung dafür umgangen. Ein einfacherer Deskriptor, der für die Verwendung beim Stereo-Vision-Matching entwickelt wurde, ist die Census-Transformation, obwohl dies aus dem gleichen Grund wie Ihre derzeitige Methode (die auch im Stereo-Vision weit verbreitet ist) möglicherweise nicht so gut für das Matching von Frame zu Frame funktioniert.

Das Buch, das Sie dazu lesen sollten, ist Multiple View Geometry in Computer Vision .


Danke für deinen Vorschlag. Der fps-begrenzende Faktor ist tatsächlich die Kamera im System - sehr große Bildgrößen. Mit diesen Frame-Größen könnten wir mit den aktuellen Algorithmen mit der von uns verwendeten Technologie sogar bis zu 12 fps erreichen.
David Pointer

Ohhhh, warte. Wollen Sie damit sagen, dass eine höhere Bildrate der Kamera dieses Problem der Intensitäts- / Kontrastverschiebung insgesamt vermeidet, da weniger Zeit zur Verfügung steht, damit sich die Intensitäten bei beobachteten Objekten zwischen den Bildern tatsächlich ändern? Die Flugzeugzelle selbst kann sich in 33 Millisekunden stark bewegen.
David Pointer

3

Alternativ zu SIFT / SURF / Other können Sie auch die FFT-Phasenkorrelation verwenden, wenn Frames hauptsächlich durch Übersetzungen transformiert wurden (Rotation / Perspektive ist klein). Sie können die Phasenkorrelation auch iterativ auf Bildbereiche anwenden, um eine bessere Genauigkeit zu erzielen.

http://en.wikipedia.org/wiki/Phase_correlation


1

Wenn Sie versuchen, die beiden Bilder auszurichten, sollten Sie einen besseren lokalen Feature-Detektor verwenden. SIFT ist wahrscheinlich das beliebteste / erfolgreichste.


1

Ich denke, dass es besser ist, Shi und Tomasi zu verwenden. Sie können sie mit der gleichen Funktion verwenden

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.