Ich möchte Objekte von mehreren Sensoren mit unterschiedlichen (manchmal überlappenden!) Sichtfeldern verschmelzen. Wie kann ich anhand von Objektlisten feststellen, ob einige von verschiedenen Sensoren beobachtete Objekte tatsächlich dasselbe Objekt sind? Nur dann kann ich wirklich einen Algorithmus schreiben, um den zukünftigen Zustand eines solchen Objekts vorherzusagen.
Aus der Literatur habe ich diese 4 Schritte gelesen:
- Plot, um die Zuordnung zu verfolgen (zuerst die Schätzungen der Tracks aktualisieren und dann durch "Akzeptanzgatter" oder durch statistischen Ansatz PDAF oder JPDAF zuordnen)
- Spurglättung (viele Algorithmen zum Generieren einer neuen verbesserten Schätzung, z. B.: EKF, UKF, PF)
- Track-Initiierung (neue Tracks aus nicht zugeordneten Plots erstellen)
- Gleiswartung (Löschen eines Gleises, wenn es in den letzten M Runden nicht zugeordnet war. Außerdem: Vorhersage der zugeordneten Gleise, ihrer neuen Position basierend auf dem vorherigen Kurs und der Geschwindigkeit)
Im Grunde frage ich Punkt 1, Akzeptanztor. Für einen einzelnen Sensor kann ich mir vorstellen, dass es nur ein Vergleich der xy-Position des Objekts und der Sensormessung sein kann, Geschwindigkeit mit Kurs schließlich. Mein Fall ist jedoch, dass ich bereits Objektlisten von jedem Sensor in jedem Zyklus bereit habe. Es gibt einige Algorithmen zum Zusammenführen von Informationen über ein Objekt, die von verschiedenen Sensoren gesammelt wurden (eine gute Quelle ist z. B. hier: http://www.mathworks.de/). matlabcentral / fileexchange / 37807-Messfusion-Zustandsvektor-Fusion ), aber die Frage ist, wie zu entscheiden ist, welche Objekte fusioniert werden sollen und welche so bleiben, wie sie waren? Sichtfelder können sich teilweise, nicht vollständig überlappen.