Objektpegelsensorfusion für die Verfolgung mehrerer Objekte


7

Ich möchte Objekte von mehreren Sensoren mit unterschiedlichen (manchmal überlappenden!) Sichtfeldern verschmelzen. Wie kann ich anhand von Objektlisten feststellen, ob einige von verschiedenen Sensoren beobachtete Objekte tatsächlich dasselbe Objekt sind? Nur dann kann ich wirklich einen Algorithmus schreiben, um den zukünftigen Zustand eines solchen Objekts vorherzusagen.

Aus der Literatur habe ich diese 4 Schritte gelesen:

  1. Plot, um die Zuordnung zu verfolgen (zuerst die Schätzungen der Tracks aktualisieren und dann durch "Akzeptanzgatter" oder durch statistischen Ansatz PDAF oder JPDAF zuordnen)
  2. Spurglättung (viele Algorithmen zum Generieren einer neuen verbesserten Schätzung, z. B.: EKF, UKF, PF)
  3. Track-Initiierung (neue Tracks aus nicht zugeordneten Plots erstellen)
  4. Gleiswartung (Löschen eines Gleises, wenn es in den letzten M Runden nicht zugeordnet war. Außerdem: Vorhersage der zugeordneten Gleise, ihrer neuen Position basierend auf dem vorherigen Kurs und der Geschwindigkeit)

Im Grunde frage ich Punkt 1, Akzeptanztor. Für einen einzelnen Sensor kann ich mir vorstellen, dass es nur ein Vergleich der xy-Position des Objekts und der Sensormessung sein kann, Geschwindigkeit mit Kurs schließlich. Mein Fall ist jedoch, dass ich bereits Objektlisten von jedem Sensor in jedem Zyklus bereit habe. Es gibt einige Algorithmen zum Zusammenführen von Informationen über ein Objekt, die von verschiedenen Sensoren gesammelt wurden (eine gute Quelle ist z. B. hier: http://www.mathworks.de/). matlabcentral / fileexchange / 37807-Messfusion-Zustandsvektor-Fusion ), aber die Frage ist, wie zu entscheiden ist, welche Objekte fusioniert werden sollen und welche so bleiben, wie sie waren? Sichtfelder können sich teilweise, nicht vollständig überlappen.


Es gibt viele weitere Möglichkeiten, Punkt 1 auszuführen, und Punkt 1 ist genau das, was Sie benötigen. Sie müssen vielleicht kreativ werden, aber das ist die Aufgabe, die Sie haben.
Josh Vander Hook

Antworten:


4

Dies wird in der Verfolgungsliteratur als "Datenassoziation" bezeichnet. Wenn Sie die Position eines Objekts messen, müssen Sie wissen, welches Objekt Sie gemessen haben. Wenn Sie diese Wahrscheinlichkeit abschätzen können, können Sie die wahrscheinlichste Zuordnung frei wählen. Dies ist ein stark erforschtes Thema, das sich jedoch auf die Bayes'sche Analyse beschränkt.

Hier ist ein einfacher Weg:

Angenommen, wir haben zwei Objekte Ö1 und Ö2eine Schätzung ihrer Position x1 und x2und eine Messung z. Annehmenzist nur eine Positionsmessung. Wir möchten aktualisierenÖ1 oder Ö2's geschätzte Position, aber wir haben keine Ahnung mit dem Objekt, das wir gerade gemessen haben. Wir finden also das wahrscheinlichste Objekt und aktualisieren es.

  1. Schätzen p(z|x1) und p(z|x2). Der Kalman-Filter bietet Ihnen die Werkzeuge, um dies zu tun.

  2. WENN p(z|x1)>p(z|x2) UND p(z|x1)>γ, dann aktualisieren x1 mit zDer Kalman-Filter bietet Ihnen auch die Werkzeuge, um dies zu tun.

  3. SONST WENN p(z|x2)>p(z|x1) UND p(z|x2)>γ, dann aktualisieren x2 mit zDer Kalman-Filter bietet Ihnen auch die Werkzeuge, um dies zu tun.

  4. Sonst ist keine Wahrscheinlichkeit größer als γ, also lassen wir die Messung fallen. Sie können einstellenγ auf Null, wenn es dich nicht interessiert.

Zwei Dinge: Erstens müssen Sie auch wissen, wie ein Objekt initialisiert wird. Deshalbγist wichtig. Wenn die Messung nicht scheinen alle bekannten Schätzungen übereinstimmen, haben Sie gerade ein neues Objekt gefunden.

Zweitens habe ich den Verdacht, dass Ihre Frage stark bearbeitet wird, sodass ich gerade nicht viele Details einfüge.


BEARBEITEN Um Ihre neuere, überarbeitete Frage zu beantworten:

Sie haben ein anderes Problem, aber es ist völlig verwandt. Zunächst möchten Sie Objekte zusammenführen. Dies ist so einfach wie das Schätzen der Wahrscheinlichkeit, dass alle Messungen von Objekt 1 und alle Messungen von Objekt 2 tatsächlich von demselben Objekt stammen. Der Algorithmus ist einfach, aber rechnerisch nahezu unlösbar. Dies entspricht der Zusammenführung von Titeln.

Um dies wirklich mit Objekten in 3D zu tun, benötigen Sie ein Modell des Objekts, mit dem Sie die Wahrscheinlichkeit abschätzen können, dass zwei teilweise überlappende (oder möglicherweise nur in der Nähe befindliche) Objekte tatsächlich dasselbe Objekt sind. Dies ist jedoch genau das gleiche wie beim Akzeptanz-Gate-Ansatz.

Hinweis

Es gibt nur wenige wirklich nützliche Möglichkeiten, um Messungen durchzuführen, und sie sind gut definiert. Ich empfehle dringend, wenn Sie mit abstrakten Nachverfolgungs- und Schätzungsaufgaben fortfahren möchten, das Bar-Shalom- Nachverfolgungs- und Schätzungsbuch zu lesen . Bitte besorgen Sie es sich in einer Bibliothek, wenn Sie können. Ich kenne einfach keine bessere Referenz.


Sie haben Recht, ich werde meine Frage in Kürze bearbeiten. Ich füge Wissen hinzu, das ich habe, es kann später auch eine gute Quelle für die anderen sein. Beantworten Sie also bitte meine aktualisierte Frage, als hätte ich Sie hier gefragt. In Bezug auf Ihre 1.2.3.4. Vielleicht eine dumme Frage, aber wie lässt mich KF die Wahrscheinlichkeit einer messungsabhängigen Messung abschätzen? Ich dachte, die Messung kommt gerade und wird mit dem geschätzten Innovationsteil verglichen.
Josh131

1

Das hängt von vielen Dingen ab. Welche Art von Sensoren? Sind sie stationär? Sind sie zumindest in Bezug zueinander festgelegt?

Wenn Sie beispielsweise ein System mit mehreren Kameras haben, die in Bezug zueinander fixiert sind, können Sie sie kalibrieren, sodass Sie ihre relativen Positionen und Ausrichtungen kennen. Dann können Sie nicht nur feststellen, ob zwei Erkennungen in verschiedenen Kameras dasselbe Objekt sind, sondern auch die Position in 3D bestimmen.

Hier ist das klassische Papier zur Kamerakalibrierung . Um die Kalibrierung tatsächlich durchzuführen, können Sie entweder OpenCV oder die Caltech Camera Calibration Toolbox für Matlab verwenden . OpenCV verfügt über eine Beispielanwendung für die Kamerakalibrierung, die einfacher zu verwenden ist als die Caltech-Toolbox.


Sensoren sind zueinander fixiert. Zuerst interessiere ich mich für Typ Radar. Und schließlich, wie es in Kombination mit Kamera oder Laser funktionieren würde. Worüber Sie geschrieben haben, ist Stereovision richtig?
Josh131

Ja, das ist Stereovision. Es muss auch Möglichkeiten geben, ein System zu kalibrieren, das aus anderen Sensortypen besteht. Leider weiß ich so gut wie nichts über Radar.
Dima

OK, kein Problem. Im Folgenden werde ich auch auf Kameras umsteigen. Gibt es einige Referenzen, von denen Sie mir empfehlen, zu lernen, sobald ich mich damit beschäftige?
Josh131

1
Ich habe meine Antwort bearbeitet.
Dima
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.