Je veux télécharger un site Web entier (avec des sous-sites). Y at-il un outil pour cela?
--convert-links
dans wget) ne révéleront pas les sites qui ne sont révélés qu'en soumettant un formulaire, entre autres choses.
Je veux télécharger un site Web entier (avec des sous-sites). Y at-il un outil pour cela?
--convert-links
dans wget) ne révéleront pas les sites qui ne sont révélés qu'en soumettant un formulaire, entre autres choses.
Réponses:
Essayez l'exemple 10 à partir d' ici :
wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL
–mirror
: activer les options appropriées pour la mise en miroir.
-p
: téléchargez tous les fichiers nécessaires pour afficher correctement une page HTML donnée.
--convert-links
: après le téléchargement, convertir les liens dans le document pour une visualisation locale.
-P ./LOCAL-DIR
: enregistrez tous les fichiers et répertoires dans le répertoire spécifié.--wait=seconds
argument si vous souhaitez être plus convivial sur le site; il attendra le nombre de secondes spécifié entre les extractions.
httrack est l'outil que vous recherchez.
HTTrack vous permet de télécharger un site Web à partir d’Internet dans un répertoire local, de créer de manière récursive tous les répertoires, d’obtenir du HTML, des images et d’autres fichiers du serveur sur votre ordinateur. HTTrack organise la structure de liens relative du site d'origine.
Avec wget
vous pouvez télécharger un site Web entier, vous devez utiliser -r
switch pour un téléchargement récursif . Par exemple,
wget -r http://www.google.com
WEBHTTRACK WEBSITE COPIER est un outil pratique pour télécharger un site Web complet sur votre disque dur en vue d'une navigation hors ligne. Lancez le centre de logiciels ubuntu et saisissez "guillemets de site Web" sans les guillemets dans le champ de recherche. sélectionnez-le et téléchargez-le du centre logiciel sur votre système. démarrez la webHTTrack à partir du menu de lancement ou du menu de démarrage, à partir de là, vous pourrez commencer à profiter de cet outil formidable pour les téléchargements de votre site
Je ne connais pas les sous-domaines, à savoir les sous-sites, mais wget peut être utilisé pour récupérer un site complet. Jetez un oeil à la question de ce superutilisateur . Il dit que vous pouvez utiliser -D domain1.com,domain2.com
pour télécharger différents domaines dans un seul script. Je pense que vous pouvez utiliser cette option pour télécharger des sous-domaines, par exemple-D site1.somesite.com,site2.somesite.com
J'utilise Burp - l'outil spider est beaucoup plus intelligent que wget et peut être configuré pour éviter les sections si nécessaire. La suite Burp elle-même est un ensemble puissant d’outils facilitant les tests, mais l’outil spider est très efficace.
Vous pouvez télécharger toute la commande du site Web:
wget -r -l 0 website
Exemple :
wget -r -l 0 http://google.com
Si la rapidité vous préoccupe (et que le serveur ne fonctionne pas bien), vous pouvez essayer puf , qui fonctionne comme wget mais peut télécharger plusieurs pages en parallèle. Ce n'est cependant pas un produit fini, pas entretenu et horriblement non documenté. Néanmoins, pour télécharger un site Web contenant de nombreux fichiers de petite taille, cela pourrait être une bonne option.