Je souhaite télécharger une copie locale d'une page Web et obtenir tous les css, images, javascript, etc.
Dans les discussions précédentes (par exemple ici et ici , qui ont toutes deux plus de deux ans), deux suggestions sont généralement avancées: wget -p
et httrack . Cependant, ces suggestions échouent toutes les deux. J'apprécierais beaucoup l'aide à utiliser l'un ou l'autre de ces outils pour accomplir la tâche; les alternatives sont également belles.
Option 1: wget -p
wget -p
télécharge avec succès tous les prérequis de la page Web (css, images, js). Cependant, lorsque je charge la copie locale dans un navigateur Web, la page ne peut pas charger les conditions préalables car les chemins d'accès à ces conditions préalables n'ont pas été modifiés à partir de la version sur le Web.
Par exemple:
- Dans le code HTML de la page,
<link rel="stylesheet href="https://stackoverflow.com/stylesheets/foo.css" />
devra être corrigé pour pointer vers le nouveau chemin relatif defoo.css
- Dans le fichier css,
background-image: url(/images/bar.png)
devra également être ajusté.
Existe-t-il un moyen de modifier wget -p
pour que les chemins soient corrects?
Option 2: httrack
httrack
semble être un excellent outil pour mettre en miroir des sites Web entiers, mais je ne sais pas comment l'utiliser pour créer une copie locale d'une seule page. Il y a beaucoup de discussions dans les forums httrack sur ce sujet (par exemple ici ) mais personne ne semble avoir une solution pare-balles.
Option 3: un autre outil?
Certaines personnes ont suggéré des outils payants, mais je n'arrive pas à croire qu'il n'y ait pas de solution gratuite.
wget --random-wait -r -p -e robots=off -U mozilla http://www.example.com
wget -E -H -k -K -p http://example.com
- seulement cela a fonctionné pour moi. Crédit: superuser.com/a/136335/94039