Ich versuche, eine Stereokamera für die Szenenrekonstruktion zu verwenden, kann aber normalerweise nur spärliche Punktwolken erhalten (dh mehr als die Hälfte des Bildes enthält keine geeigneten Tiefeninformationen).
Mir ist klar, dass Stereoverarbeitungsalgorithmen auf dem Vorhandensein von Texturen in den Bildern beruhen und einige Parameter aufweisen, die angepasst werden können, um bessere Ergebnisse zu erzielen, wie z. B. den Disparitätsbereich oder die Größe des Korrelationsfensters. So sehr ich diese Parameter einstelle, kann ich niemals Ergebnisse erzielen, die auch nur annähernd dem entsprechen, was mit einem aktiven Sensor wie dem Kinect erzielt werden kann.
Der Grund, warum ich das möchte, ist, dass Punktwolken, die benachbarten Regionen entsprechen, sehr oft nicht genug überlappen, um eine Übereinstimmung zu erzielen, sodass die Rekonstruktion stark beeinträchtigt ist.
Meine Frage an die Computer Vision-Experten lautet wie folgt: Was kann ich tun, um im Allgemeinen dichtere Punktwolken zu erhalten (ohne meine Büroumgebung willkürlich zu ändern)?