Ich habe ein Webverzeichnis, das viele Ordner und viele Unterordner enthält, die Dateien enthalten.
Ich muss alles mit wget oder bash herunterladen.
Ich habe ein Webverzeichnis, das viele Ordner und viele Unterordner enthält, die Dateien enthalten.
Ich muss alles mit wget oder bash herunterladen.
Antworten:
$ wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains website.org \
--no-parent \
www.website.org/tutorials/html/
Dieser Befehl lädt die Website www.website.org/tutorials/html/ herunter.
Die Optionen sind:
Oder probieren Sie die Lösung von Ubuntu.
wget --recursive
(oder was auch immer) hat bei mir nicht funktioniert (ich bin auf CentOS). lftp
erledigt:
lftp -c "open http://your.server/path/to/directory/; mirror"
Siehe Wget Recursive Retrieval .
wget -r -l 5 -O whatever http://example.com/
Sie haben ein Webverzeichnis? Befindet es sich auf einem Remotecomputer und Sie können nur über HTTP darauf zugreifen, oder haben Sie Shell-Zugriff? Ihre Erwähnung von Bash impliziert Shell-Zugriff, es sei denn, Sie möchten wget über die Bash-Eingabeaufforderung verwenden.
Wget ist nicht immer sehr effizient. Wenn Sie also Shell-Zugriff auf den Computer haben, auf dem sich das Webverzeichnis befindet, und Sie es herunterladen möchten, können Sie dies tun
$ tar cjf webdir.tar.bz2 webdir
und übertragen Sie dann das Archiv mit ftp oder scp.