Ich benötige ein Programm, mit dem ich eine Reihe von URLs erstellen kann (entweder einfügen oder in eine Datei einfügen). Anschließend muss es in der Lage sein, diese Links zu crawlen und Dateien eines bestimmten Typs zu speichern, z. B. Bilder. Ich habe ein paar Spinnen ausprobiert, aber kein Glück gehabt.
Derzeit ist der einzige Weg, um alles herunterzuladen, jeden Link zu öffnen, dann benutze ich die "DownThemAll!" Firefox-Plugin, das alle Bilder (oder einen beliebigen Dateityp) auf der Seite auswählt und herunterlädt. Dies funktioniert Seite für Seite, aber ich brauche etwas Ähnliches, das eine ganze Liste von URLs funktioniert.
Hat jemand irgendwelche Vorschläge ?? Vielen Dank.
PS. Könnte ich auch hinzufügen, dass es etwas ziemlich einfaches ist, das eine halbwegs anständige Benutzeroberfläche hat und nicht von der Kommandozeile aus läuft. Vielen Dank
http://www.someUrl.com/fhg/xbox/1/index.php?ccbill=123456
http://www.someUrl.com/fhg/allison_gf/1/index.php?ccbill=123456
http://www.someUrl.com/fhg/cookin/1/index.php?ccbill=123456
http://www.someUrl.com/fhg/blackjacket/1/index.php?ccbill=123456
Install-Package Select.HtmlToPdf
allison19
durchsomeUrl
. versaut! = P