Wenn Sie sich über die Prinzipien der Sensorfusion informieren, erhalten Sie immer eine bessere Schätzung, wenn Sie Daten richtig kombinieren. Wenn Sie beispielsweise die Temperatur in einem Raum mit 3 verschiedenen Temperatursensoren messen, ist es nicht ideal, nur den besten Sensor zu verwenden. Der Idealfall wäre, eine gewichtete Kombination jedes Sensors zu erstellen, wobei das Gewicht des Sensors proportional zu eins über die Varianz dieses Sensors ist. Ganz zu schweigen davon, dass die Kilometerzählungsdaten SEHR gut sind. Es ist die Extraktion von Orientierungspunkten, die verrauscht ist und höchstwahrscheinlich eine höhere Varianz aufweist.
Wenn Sie aus einer übergeordneten Perspektive darüber nachdenken, ist es auch erforderlich, dass Sie ein auf Kilometerzähler basierendes Bewegungsupdate haben. Wenn Sie nur Orientierungspunkte verwenden würden, hätten Sie mehrdeutige Fälle. Nehmen Sie zum Beispiel den Fall, dass Sie nur einen Orientierungspunkt identifizieren. Sie hätten einen Abstand z von Ihrem Roboter zum Orientierungspunkt, aber dies würde einer unendlichen Anzahl von Punkten in einem Kreis um den Orientierungspunkt zugeordnet. Wenn Sie keine Orientierungspunkte identifizieren, können Sie nichts tun! Durch die Einbeziehung der Kilometerzähler haben wir keine Mehrdeutigkeit mehr. Angenommen, wir lokalisieren in einer 2D-Ebene (x, y), müssten Sie sicherstellen, dass Sie Messwerte für mindestens 3 Orientierungspunkte haben, um Ihre Position ohne Kilometerzähler zu triangulieren, und Sie können diese Garantie in normalen Umgebungen nicht geben.
Schließlich kann ein Encoder in der Größenordnung von 50 Hz abgetastet werden, während ein LIDAR nur bei etwa 6-7 Hz abgetastet werden kann (zitieren Sie mich nicht auf diesen Frequenzen). Dies bedeutet, dass Sie Ihre aktuelle Position über die Kilometerzähler viel häufiger aktualisieren können als anhand der Sensorwerte. Dies berücksichtigt nicht einmal, wie lange Sie brauchen, um Ihren Sensorwert zu verarbeiten, um Orientierungspunkte zu identifizieren!