Schätzung der Auflösung von Vektordaten?


8

Ich habe einen alten Vektordatensatz mit Polygonen erhalten, die einen Kontinent abdecken. Die Daten wurden zunächst im Maßstab 1: 5 000 000 auf Papier veröffentlicht und später digitalisiert. Ich habe keine Originaldaten und keine Informationen über die Vektorisierung oder Metadaten. Ich denke, dass der Abstand zwischen den Eckpunkten und nicht die Genauigkeit die Auflösung begrenzt.

Scheitelpunkte werden mit hoher Auflösung gespeichert (z. B. "nnn.nnnnnnnn", "- nn.nnnnnnnn"). Der Datensatz enthält nur wenige Punkte, die georeferenziert werden können, sowie Knoten, die als Koordinaten definiert sind (z. B. bei geraden Graden oder UTM-Koordinaten). Wenn ich einige Küstenabschnitte vergleiche, beträgt der Fehler bis zu +/- 20 km.

Ich möchte eine Formel finden, um den maximalen Fehler basierend auf der Verteilung der Eckpunkte zu schätzen. Ich habe Zugriff auf jede GIS-Anwendung, würde aber eine zuverlässige statistische Referenz bevorzugen.

Wie kann ich den maximalen Fehler des Datensatzes berechnen, vorausgesetzt, alle Scheitelpunkte sind korrekt? Oder anders formuliert: Mit welcher Methode kann ich die größte Auflösung des Datensatzes ermitteln?

Ich habe versucht, den Datensatz bei verschiedenen Zellengrößen zu rasteren und ihn dann auf eine kleine Zellengröße zu übertasten, um die kleinstmögliche Rasterung ohne Auflösungsverlust zu erkennen, aber das ist ziemlich zeitaufwändig und nicht sehr mathematisch.


Ich würde sagen, dass mindestens Eckpunkte auf dem Papier nur auf 0,1 mm genau sein können, was 500 m im Maßstab 1: 500000 bedeutet. Darüber hinaus kann es sehr schwierig sein zu sagen, wie sich Vereinfachung und andere Faktoren auswirken, insbesondere wenn die ursprüngliche Karte von Hand gezeichnet wurde.
user30184

Ja, das wäre das beste Szenario. Leider denke ich, dass meine nützliche Auflösung viel niedriger ist, da die Polygone eher spärliche Eckpunkte haben und eckiger erscheinen, als ich es von natürlichen, z. B. meteorologischen Daten erwarten würde. Ich habe auch keinen Zugriff auf die Originalkarten, sollte ich erwähnen.
Tactopoda

1
@ user30184 0,1 mm ist ziemlich optimistisch, ich würde eher 0,3 mm erwarten
radouxju

Und dieser Blog betrachtet 1 mm als kleinste erkennbare Größe blogs.esri.com/esri/arcgis/2010/12/12/… . Es würde 5000 m im Maßstab 1: 5000000 bedeuten (ich habe beim Schreiben eine Null aus meinem obigen Kommentar gestrichen).
user30184

Antworten:


2

Gute Frage - Ich habe diese Art von Frage schon oft gesehen und leider ignorieren viele Leute, die eine quantitative GIS-Analyse durchführen, die KRITISCHE Komponente der Berechnung der Unsicherheit in räumlichen Datensätzen. Es gibt wichtige Konzepte und Begriffe, die geklärt werden müssen, bevor diese Art von Aufgabe auf quantitative Ergebnisse reduziert werden kann.

Die Berechnung des Fehlers in einem räumlichen Datensatz setzt voraus, dass die Abstammungslinie des Datensatzes bekannt ist. Da Metadaten in keinem Schritt des Prozesses verfügbar sind, ist diese Art der Quantifizierung nicht möglich. Die Genauigkeit der Koordinaten innerhalb eines Vektordatensatzes garantiert nicht die Behauptung, dass der Datensatz in irgendeiner Weise genau ist . Durch das Rasteren eines Datensatzes wird der eigene Fehlergrad und die eigene Unsicherheit innerhalb der Daten geerbt.

Ohne die Metadaten und die fortlaufende Berechnung von Fehlern und Unsicherheiten kann der Datensatz als hübsches Bild betrachtet werden. Obwohl es wie ein einfacher Prozess erscheint, den Maßstab der Originalkarte und die genaue Art der Vektorpolygonkoordinaten zu verwenden, werden grundlegende Konzepte der Geographie verletzt, wenn Fehler und Unsicherheit nicht bei jedem Schritt der Datensatzerstellung berechnet werden aus:

  1. Originalerfassung des Datensatzes (Fehler und Unsicherheit eingeführt)
  2. Papierkartenerstellung (Verallgemeinerungen werden gemacht)
  3. Digitalisierung der Papierkarte in eine digitale Vektordatei (mehr Fehler, mehr Unsicherheit)

Obwohl dies möglicherweise nicht die Antwort ist, nach der Sie suchen, ist es ein guter Ausgangspunkt für alle, die sich in einer ähnlichen Situation befinden:

  • Wenn Sie die Aufgabe haben, eine quantitativ genaue Darstellung der Unsicherheit eines räumlichen Modells zu berechnen, würde ich empfehlen, das Thema „Unsicherheit und Fehlerausbreitung in räumlichen Daten“ zu untersuchen, da das Thema ausführlich, mathematisch und statistisch dicht ist.

  • Wenn Sie den Datensatz als hübsches Bild verwenden, beginnen Sie mit der Zuordnung.


0

Ich stimme Alex zu. Da keine Metadaten verfügbar sind und die Herkunft des Datensatzes nicht bekannt ist, ist es schwierig, den Fehler zu bewerten. Der Fehler sollte an einem genau bekannten Ort quantifiziert werden, wenn er in den Datenmengen vorhanden ist.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.