Ich versuche, zwei Websites zur Aufnahme auf eine CD herunterzuladen:
http://boinc.berkeley.edu/trac/wiki
http://www.boinc-wiki.info
Das Problem, das ich habe, ist, dass dies beide Wikis sind. Also beim Herunterladen mit zB:
wget -r -k -np -nv -R jpg,jpeg,gif,png,tif http://www.boinc-wiki.info/
Ich bekomme viele Dateien, weil es auch Links wie ...? Action = edit ...? Action = diff & version = ... folgt.
Kennt jemand einen Weg, um das zu umgehen?
Ich möchte nur die aktuellen Seiten, ohne Bilder und ohne Unterschiede usw.
PS:
wget -r -k -np -nv -l 1 -R jpg,jpeg,png,gif,tif,pdf,ppt http://boinc.berkeley.edu/trac/wiki/TitleIndex
Das hat bei Berkeley funktioniert, aber boinc-wiki.info macht mir immer noch Probleme: /
PPS:
Ich habe die anscheinend relevantesten Seiten mit:
wget -r -k -nv -l 2 -R jpg,jpeg,png,gif,tif,pdf,ppt http://www.boinc-wiki.info