Das Thema der Verwaltung von Geodaten im allgemeineren Sinne wurde hier bereits angesprochen. Dort wurde auch das Thema Versionierung erwähnt, aber nicht wirklich behandelt.
Die herkömmliche Erfassung und Wartung von Geodaten muss sich nur intern mit der Versionierung befassen, da die Datenbank nur innerhalb des Unternehmens aktualisiert wird. Dies ist bei Crowdsourcing-Geodatabases wie OpenStreetMap nicht der Fall. Dort kann jeder mitkommen und Objekte hinzufügen, ändern oder löschen. In OpenStreetMap wird dies rudimentär behandelt: Jedes Objekt hat eine ganzzahlige Versionsnummer, und nur das Objekt mit der höchsten Version wird in der Live-Datenbank verfügbar gemacht. Die Datenbank verwendet optimistisches Sperren, sodass Benutzer alle Konflikte lösen müssen, die beim manuellen Hochladen von Beiträgen auftreten.
Dies alles funktioniert ziemlich gut, solange menschliche Beiträge durch die Redakteure ( JOSM , Potlatch ) die einzige Art des Beitrags sind - aber sie sind es nicht. Zunehmend werden Importe offener Daten des öffentlichen Sektors durchgeführt. Dies führt zu komplexeren Versionsproblemen. Stellen Sie sich das folgende Szenario vor:
- Ein Gebäudeobjekt wird aus einem offenen Datensatz des öffentlichen Sektors importiert
- Das Gebäude erhält einige Änderungen durch menschliche Mitarbeiter (Attribute, Geometrie oder beides).
- Eine neue Version der Daten des öffentlichen Sektors wird verfügbar und importiert.
Derzeit gehen in Schritt 3 die menschlichen Beiträge verloren, es sei denn, jedes Gebäude, das Änderungen an der Community erhalten hat, wird manuell mit dem neuen Import zusammengeführt.
Wie kann OpenStreetMap mit dieser Situation umgehen? Müssen wir uns die verteilte Versionskontrolle in der Softwareentwicklung ansehen? Wie können DVC-Methoden an die verteilte Geodatenpflege angepasst werden?