Angenommen, ich habe 5 Marker. Ich versuche, die relativen Abstände zwischen den einzelnen Markern mithilfe eines Augmented-Reality-Frameworks wie ARToolkit zu ermitteln . In meinem Kamera-Feed zeigen mir die ersten 20 Bilder nur die ersten 2 Marker, damit ich die Transformation zwischen den 2 Markern herausarbeiten kann. Die zweiten 20 Bilder zeigen mir nur die 2. und 3. Markierung und so weiter. Die letzten 20 Bilder zeigen mir den 5. und 1. Marker. Ich möchte eine 3D-Karte der Markierungspositionen aller 5 Markierungen erstellen.
Meine Frage ist, in dem Wissen, dass es aufgrund der geringen Qualität des Video-Feeds zu Ungenauigkeiten bei den Entfernungen kommen kann. Wie kann ich die Ungenauigkeiten bei allen gesammelten Informationen minimieren?
Mein naiver Ansatz wäre, den ersten Marker als Basispunkt zu verwenden, aus den ersten 20 Frames den Mittelwert der Transformationen zu nehmen und den 2. Marker usw. für den 3. und 4. zu platzieren. Für den 5. Marker platzieren Sie ihn zwischen dem 4. und 1., indem Sie ihn in die Mitte des Mittelwerts der Transformationen zwischen dem 5. und 1. und dem 4. und 5. setzen. Dieser Ansatz tendiert meiner Meinung nach jedoch zur ersten Platzierung der Marker und berücksichtigt nicht, dass die Kamera mehr als 2 Marker pro Bild sieht.
Letztendlich möchte ich, dass mein System die Karte mit x Markierungen ausarbeiten kann. In jedem Bild können bis zu x Markierungen angezeigt werden, und aufgrund der Bildqualität treten nicht systemische Fehler auf.
Jede Hilfe bezüglich der richtigen Herangehensweise an dieses Problem wäre sehr dankbar.