Wie kann ich Bilder auf einer Webseite in großen Mengen herunterladen UND die entsprechenden URLs speichern?


1

Ich weiß, dass es eine ganze Reihe von Tools gibt, mit denen ich Bilder von Webseiten in großen Mengen herunterladen kann, aber ich muss etwas anderes tun.

Ich erstelle eine Website, die Bilder aus dem Internet zusammenstellt.

Anstatt also nur Bilder herunterzuladen, muss ich auch eine gespeicherte Datei mit allen URLs der Seiten haben, auf denen sich das Originalbild befindet, damit ich auf die Originalressourcen verlinken kann.

Es gibt dieses eine Tool, dessen Name ich vergessen habe, das beinahe das tut, obwohl es den Serverpfad des Images speichert, was nicht geeignet ist, da die meisten Bilder auf einem CDN gehostet werden und ich in der Lage sein muss, eine Verknüpfung zu dem zu erstellen Originalseite, ohne deren CDN zu verlinken.

Kennt ihr eine Methode, um das zu tun?


Auf Grund der Komplexität könnte dies möglicherweise mit der Befehlszeile ausgeführt werden (ein Skript, das sowohl die fraglichen Daten abruft als auch die URL zusammen mit dem Dateinamen in einer Liste verwendet).
Anaksunaman
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.