Zuverlässig? Keine Chance.
Svn verwendet ähnliche Techniken wie diff
Um die Größe der einzelnen Festschreibungen zu verringern, werden Dateien effektiv in eine "Basis" -Datei komprimiert und die Additionen und Subtraktionen aus dieser Datei. Das anscheinend sogar funktioniert für binäre Dateien
Das Problem ist jedoch, dass Sie nicht alle diese Zwischen-Blobs herunterziehen. Im Verlauf mehrerer Überarbeitungen kann der zum Ermitteln des Unterschieds zwischen den Überarbeitungen verwendete Speicherplatz ein Vielfaches der Datei selbst betragen.
Sie ziehen gelöschte Dateien auch nicht herunter. Wenn Sie mit besonders großen Dateien arbeiten, die regelmäßig gelöscht werden, wird diese gelöschte Datei bis zum Ende der Zeit auf dem Server gespeichert, jedoch nie auf Ihrer Festplatte angezeigt. Dadurch verfügt der Server über eine größere Datenmenge als Ihre Kopie.
Wenn Sie große Projekte häufig mit externen Quellen verknüpfen, können Sie am Ende mehr Daten auschecken als wenn Sie nur die einzelnen Projekte ausgecheckt hätten. Tags belegen auch fast keinen Speicherplatz auf dem Server (es sei denn, Sie bearbeiten Dateien darunter), sodass das Auschecken auch nicht dem auf dem Server belegten Speicherplatz entspricht.
Die einzige Schlussfolgerung, die Sie wirklich ziehen können, ist, dass bestimmte Dateideltas, Protokolle und gelöschte Dateien vorhanden sind und der Server, solange Sie externe Elemente und Tags / Zweige ausschließen wahrscheinlich hat mehr Daten als Ihre lokale Kopie. Die Dateikomprimierung kann dies jedoch ebenfalls beeinflussen.