Sie können die -pages-articles.xml.bz2
von der Wikimedia- Dump- Site nehmen und sie mit WikiTaxi verarbeiten (Download in der oberen linken Ecke). Das Wikitaxi-Import-Tool erstellt .taxi
aus der .bz2
Datei eine Datei (ca. 15 GB für Wikipedia) . Diese Datei wird vom WikiTaxi-Programm zum Durchsuchen von Artikeln verwendet. Die Erfahrung ist der Browser-Erfahrung sehr ähnlich.
Oder Sie können Kiwix verwenden , das schneller eingerichtet werden kann, da es auch die bereits verarbeiteten .zim
Speicherauszüge ( Dateien) bereitstellt . Da der Kommentar, der angegeben wird, um andere MediaWiki-Sites für Kiwix mwoffliner
zu verwenden, möglicherweise nicht mit allen funktionieren kann, da diese möglicherweise benutzerdefinierte Unterschiede aufweisen, es sich jedoch um die einzige Variante handelt, auf die ich gestoßen bin.
Das Mitnehmen von Wikimedia-Inhalten wget
ist keine gute Praxis. Wenn zu viele Leute dies tun würden, könnte dies die Websites mit Anfragen überfluten.
Später bearbeiten Sie für den Fall, dass Sie auch die Bilder offline möchten:
Wenn Sie einen vollständigen Spiegel von Wikipedia (einschließlich Bilder) mit intakter HTML-Formatierung wünschen, der in ungefähr 30 Stunden heruntergeladen werden kann, sollten Sie Folgendes verwenden:
Englische Wikipedia hat viele Daten. Es gibt mehr als 13,9 Millionen Seiten mit mehr als 20,0 GB Text sowie mehr als 3,7 Millionen Thumbnails.
XOWA :
Das alles auf Ihrem Computer einzurichten ist kein schneller Vorgang ... Der Import selbst erfordert 80 GB Festplattenspeicher und fünf Stunden Verarbeitungszeit für die Textversion. Wenn Sie auch Bilder möchten, werden die Zahlen auf 100 GB Festplattenspeicher und 30 Stunden Verarbeitungszeit erhöht. Wenn Sie fertig sind, haben Sie jedoch eine vollständige, aktuelle Kopie der englischen Wikipedia mit Bildern, die auf eine 128-GB-SD-Karte passen.
Aber die Offline-Version ist der Online-Version sehr ähnlich, enthält Fotos usw.
(Ich habe den folgenden Artikel komplett offline getestet)
Später bearbeiten, wenn keine der oben genannten Bedingungen zutrifft:
Wenn das Wiki nicht Teil von Wikimedia ist oder keinen Dump hat, gibt es ein Projekt auf Github, das dieses Wiki mithilfe seiner API herunterlädt:
Main Page
und folgen Sie den Links von dort.