Vous pouvez prendre le -pages-articles.xml.bz2
sur le site de décharges de Wikimedia et les traiter avec WikiTaxi (télécharger dans le coin supérieur gauche). L'outil d'importation Wikitaxi créera un .taxi
fichier (environ 15 Go pour Wikipedia) à partir du .bz2
fichier. Ce fichier sera utilisé par le programme WikiTaxi pour rechercher des articles. L'expérience est très similaire à l'expérience du navigateur.
Ou vous pouvez utiliser Kiwix , plus rapide à configurer car il fournit également les vidages ( .zim
fichiers) déjà traités . Comme le commentaire le spécifie afin de pouvoir utiliser d'autres sites MediaWiki pour kiwix mwoffliner
, cela peut ne pas fonctionner avec tous car ils peuvent avoir des différences personnalisées mais c'est la seule variante que j'ai rencontrée.
Prendre des trucs Wikimedia wget
n'est pas une bonne pratique. Si trop de gens le font, cela peut inonder les sites de demandes.
Modifier plus tard pour le cas où vous souhaitez également les images hors ligne:
Si vous voulez un miroir complet de Wikipédia (y compris les images), le formatage HTML complet sera téléchargé en 30 heures environ , vous devez utiliser:
Wikipedia anglais a beaucoup de données. Il y a 13,9+ millions de pages avec 20,0+ Go de texte, ainsi que 3,7+ millions de miniatures.
XOWA :
La configuration de tout cela sur votre ordinateur ne sera pas un processus rapide ... L'importation elle-même nécessitera 80 Go d'espace disque et cinq heures de traitement pour la version texte. Si vous souhaitez également des images, le nombre augmente jusqu'à 100 Go d'espace disque et 30 heures de temps de traitement. Cependant, lorsque vous aurez terminé, vous aurez une copie complète et récente de Wikipédia en anglais avec des images pouvant tenir sur une carte SD de 128 Go.
Mais la version hors ligne ressemble beaucoup à la version en ligne, comprend des photos, etc.:
(J'ai testé l'article ci-dessous complètement hors ligne)
Modification ultérieure si aucune des conditions ci-dessus ne s'applique:
Si le wiki ne fait pas partie de Wikimedia ou n'a pas de vidage, il y a un projet sur github qui télécharge ce wiki en utilisant son API:
Main Page
suivre les liens à partir de là.