Ich habe einen alten Vektordatensatz mit Polygonen erhalten, die einen Kontinent abdecken. Die Daten wurden zunächst im Maßstab 1: 5 000 000 auf Papier veröffentlicht und später digitalisiert. Ich habe keine Originaldaten und keine Informationen über die Vektorisierung oder Metadaten. Ich denke, dass der Abstand zwischen den Eckpunkten und nicht die Genauigkeit die Auflösung begrenzt.
Scheitelpunkte werden mit hoher Auflösung gespeichert (z. B. "nnn.nnnnnnnn", "- nn.nnnnnnnn"). Der Datensatz enthält nur wenige Punkte, die georeferenziert werden können, sowie Knoten, die als Koordinaten definiert sind (z. B. bei geraden Graden oder UTM-Koordinaten). Wenn ich einige Küstenabschnitte vergleiche, beträgt der Fehler bis zu +/- 20 km.
Ich möchte eine Formel finden, um den maximalen Fehler basierend auf der Verteilung der Eckpunkte zu schätzen. Ich habe Zugriff auf jede GIS-Anwendung, würde aber eine zuverlässige statistische Referenz bevorzugen.
Wie kann ich den maximalen Fehler des Datensatzes berechnen, vorausgesetzt, alle Scheitelpunkte sind korrekt? Oder anders formuliert: Mit welcher Methode kann ich die größte Auflösung des Datensatzes ermitteln?
Ich habe versucht, den Datensatz bei verschiedenen Zellengrößen zu rasteren und ihn dann auf eine kleine Zellengröße zu übertasten, um die kleinstmögliche Rasterung ohne Auflösungsverlust zu erkennen, aber das ist ziemlich zeitaufwändig und nicht sehr mathematisch.