(Meta: Ich kenne keinen geeigneten Ort dafür auf Stack Exchange. Es scheint keine Gruppen zu geben, die sich mit autonomer Fahrtechnik und Computer-3D-Vision / Wahrnehmungssystemen befassen.)
Für selbstfahrende Fahrzeuge mit 3D-Tiefenwahrnehmung unterscheidet LIDAR auf einer Autobahn mit Hunderten anderer Fahrzeuge, die auch verschiedene andere LIDAR-Abtaststrahl- oder Spot-Field-Emissionsscanner (Kinect-Style) verwenden, die eigenen Signalrückflüsse vom Scan-Wesen von den anderen Systemen erledigt?
Bei einer extrem großen mehrspurigen Autobahn oder komplexen Kreuzungen mit mehreren Wegen können solche Emissionen in alle Richtungen und auf allen Oberflächen beobachtet werden, und es gibt keine Möglichkeit, die Strahlenemissionen anderer Scanner zu erkennen.
Dies scheint die wichtigste technische Hürde für die Implementierung von LIDAR für autonom fahrende Fahrzeuge zu sein. Es spielt keine Rolle, ob es perfekt funktioniert, wenn es das einzige Fahrzeug auf der Straße ist, das LIDAR verwendet.
Die eigentliche Frage ist, wie damit umgegangen werden soll, dass in einem zukünftigen Szenario, in dem LIDAR in jedem Fahrzeug vorhanden ist, möglicherweise mit mehreren Scannern pro Fahrzeug und Scannen in alle Richtungen um jedes Fahrzeug herum, mit Störsignalen von ähnlichen Systemen überflutet wird.
Ist es in der Lage, normal zu funktionieren, kann es sein eigenes Scannen irgendwie unterscheiden und andere ablehnen, oder kann es im schlimmsten Fall vollständig versagen und nur Mülldaten melden, die unbrauchbar sind, und es weiß nicht, dass es Mülldaten meldet?
Dies scheint zumindest ein starkes Argument für eine passive 3D-Bildverarbeitung zu sein, die nur auf der Integration von natürlichem Licht und Stereokamera-Tiefen basiert, wie dies im menschlichen Gehirn der Fall ist.