Kann jemand ein gutes Hilfsprogramm zur Erkennung von Fotokopien vorschlagen, das gut funktioniert, wenn ich mit etwa 100 GB Daten (die im Laufe der Jahre gesammelt wurden) zu tun habe?
Ich würde etwas vorziehen, das auf Ubuntu funktioniert.
Danke im Voraus!
Bearbeiten: Gibt es ein Tool, mit dem ich meine Sammlung neu organisieren und Duplikate entfernen kann, sobald sie erkannt wurden?
Edit2: Der schwierige Teil ist, herauszufinden, was zu tun ist, wenn die Ausgabe aus Tausenden doppelten Dateien besteht (z. B. die Ausgabe von fdupes).
Es ist nicht offensichtlich, ob ich ein Verzeichnis trotzdem sicher löschen kann (dh ob ein Verzeichnis eindeutige Dateien enthalten könnte), welche Verzeichnisse Teilmengen anderer Verzeichnisse sind und so weiter. Ein ideales Tool für dieses Problem sollte in der Lage sein, die Duplizierung von Dateien zu ermitteln und dann ein leistungsstarkes Mittel zur Umstrukturierung Ihrer Dateien und Ordner bereitzustellen. Eine Zusammenführung durch Hardlinking (wie dies bei fslint der Fall ist) setzt zwar Speicherplatz frei, löst jedoch nicht das zugrunde liegende Problem, das zu Beginn zu Duplikaten geführt hat - dh eine fehlerhafte Datei- / Verzeichnisorganisation.