Antworten:
Features wie die Sonne und Wolken und andere Dinge, die sehr weit weg sind, würden eine Entfernungsschätzung von inf haben. Dies kann viele Probleme verursachen. Um dies zu umgehen, wird die Umkehrung der Entfernung geschätzt. Alle infs werden zu Nullen, was tendenziell weniger Probleme verursacht.
Die inverse Tiefenparametrisierung repräsentiert die Entfernung d eines Orientierungspunkts von der Kamera genau so, wie sie sagt, als proportional zu 1 / d innerhalb des Schätzalgorithmus. Das Rationale hinter dem Ansatz ist, dass Filterungsansätze wie das erweiterte Kalman-Filter (EKF) davon ausgehen, dass der mit Merkmalen verbundene Fehler Gauß'sch ist.
Bei einer visuellen Kilometerzählereinstellung wird die Tiefe eines Orientierungspunkts geschätzt, indem die zugehörigen Merkmale über eine Reihe von Rahmen verfolgt und dann die induzierte Parallaxe verwendet werden. Für entfernte Merkmale (im Verhältnis zur Verschiebung der Kamera) ist die resultierende Parallaxe jedoch gering, und wichtig ist, dass die mit der Tiefe verbundene Fehlerverteilung in der Nähe der minimalen Tiefe mit einem langen Schwanz stark ansteigt (dh über a nicht gut modelliert ist) Gaußsche Verteilung). Um ein Beispiel zu sehen, sei auf Fig. 7 in der Veröffentlichung von Civera et al. (Erwähnt von @freakpatrol) oder auf Fig. 4 von Fallon et al. Verwiesen . ICRA 2012 .
Durch die Darstellung der inversen Tiefe (dh 1 / d) wird dieser Fehler zu einem Gaußschen Fehler. Außerdem können sehr weit entfernte Punkte dargestellt werden, zB Punkte im Unendlichen.
Davisons Artikel, in dem die Methode vorgestellt wird, ist leicht zu verstehen:
Inverse Depth Parametrization für Monocular SLAM von Javier Civera, Andrew J. Davison und JM Martinez Montiel DOI: 10.1109 / TRO.2008.2003276
Neben den Gründen, die in anderen Antworten zur numerischen Konditionierung der inversen Tiefe genannt wurden, liegt ein Hauptgrund für das Auftreten dieses Begriffs in der Literatur zur visuellen Odometrie in der Art und Weise, wie Tiefen aus der Stereovision berechnet werden: Nach der Berichtigung werden 3D-Informationen abgeleitet Der Abstand in X zwischen der Position, an der ein Punkt in den Bildern der beiden Kameras angezeigt wird.