Questions marquées «wget»

GNU Wget est un logiciel gratuit pour récupérer des fichiers en utilisant HTTP, HTTPS et FTP, les protocoles Internet les plus utilisés. Il s'agit d'un outil de ligne de commande non interactif, il peut donc être facilement appelé à partir de scripts, de tâches Cron, de terminaux sans prise en charge du système X Window (X11), etc.

3
Comment réessayer les connexions avec wget?
J'ai une connexion Internet très instable et je dois parfois télécharger des fichiers de 200 Mo maximum. Le problème est que la vitesse chute fréquemment et reste à --, -K/s et le processus reste en vie. Je pensais juste envoyer des signaux KILL au processus, mais comme je lisais dans …
23 linux  wget 


3
Télécharger TOUS les dossiers, sous-dossiers et fichiers à l'aide de Wget
J'utilise Wget et j'ai rencontré un problème. J'ai un site qui contient plusieurs dossiers et sous-dossiers au sein du site. J'ai besoin de télécharger tout le contenu de chaque dossier et sous-dossier. J'ai essayé plusieurs méthodes en utilisant Wget, et quand je vérifie l'achèvement, tout ce que je peux voir …
20 wget 

4
Comment installer Wget pour Windows?
J'ai téléchargé Wget à partir d'ici et j'ai obtenu un fichier nommé wget-latest.tar.gz, daté du 22 septembre 2009. Je l'ai enregistré dans l'un des dossiers de mon D:lecteur et l' ai décompressé. J'ai lu le READ MEfichier, mais je n'y ai trouvé aucune information sur la façon de l'installer. Puisqu'il …



3
Échapper des chaînes de requête avec wget --mirror
J'utilise wget --mirror --html-extension --convert-linkspour mettre en miroir un site, mais je me retrouve avec beaucoup de noms de fichiers au format post.php?id=#.html. Lorsque j'essaie de les afficher dans un navigateur, cela échoue, car le navigateur ignore la chaîne de requête lors du chargement du fichier. Existe-t-il un moyen de …
15 linux  wget  mirroring 


3
Comment utiliser les cookies de Firefox avec Wget?
wget --load-cookieschargera les cookies sous la forme d'un "fichier texte au format utilisé à l'origine par le fichier cookies.txt de Netscape". Cependant, Firefox conserve ses cookies dans une base de données SQLite . Existe-t-il un moyen d'extraire le "fichier cookies.txt de Netscape" du cookies.sqlitefichier Firefox ?
15 firefox  wget  cookies 

3
wget pour ftp en utilisant un mot de passe contenant @
J'essaye d'obtenir quelques fichiers de mon serveur ftp à partir de la ligne de commande. J'utilise wget pour télécharger le dossier entier en une seule fois. La commande est: wget -m ftp://username:password@ftp.hostname.com:/path/to/folder Mais le problème est que mon mot de passe contient le symbole «@». Par conséquent, la commande devient …
15 ftp  wget 

2
comment puis-je utiliser wget pour télécharger des fichiers volumineux?
J'utilise Linux Mint 15 Cinnamon fonctionnant à partir d'une clé USB de 8 Go. Je veux obtenir l'ISO pour 'Linux Mint 14 "Nadia" KDE'. J'ai essayé d'utiliser wgetdans le terminal. Voici exactement ce que j'ai tapé: wget http://mirror.ufs.ac.za/linuxmint/stable/14/linuxmint-14-kde-dvd-64bit.iso après avoir téléchargé jusqu'à 30% (après environ 2 heures), j'ai été déçu …
14 linux  linux-mint  wget 

2
Comment explorer en utilisant wget pour télécharger UNIQUEMENT des fichiers HTML (ignorer les images, css, js)
Essentiellement, je veux explorer un site entier avec Wget, mais j'en ai besoin pour ne JAMAIS télécharger d'autres ressources (par exemple, images, CSS, JS, etc.). Je veux seulement les fichiers HTML. Les recherches Google sont complètement inutiles. Voici une commande que j'ai essayée: wget --limit-rate=200k --no-clobber --convert-links --random-wait -r -E …
14 wget  web-crawler 

4
wget -o écrit des fichiers vides en cas d'échec
Si j'écris wget "no such address" -o "test.html", il crée d'abord le test.html et en cas d'échec, le laisse vide. Cependant, si vous n'utilisez pas -o, il attendra pour voir si le téléchargement réussit et seulement après cela, il écrira le fichier. J'aimerais que ce dernier comportement soit également appliqué …
14 wget 

4
Utilisation de Wget pour explorer récursivement un site et télécharger des images
Comment demandez-vous à wget d'explorer récursivement un site Web et de télécharger uniquement certains types d'images? J'ai essayé d'utiliser cela pour explorer un site et télécharger uniquement des images Jpeg: wget --no-parent --wait=10 --limit-rate=100K --recursive --accept=jpg,jpeg --no-directories http://somedomain/images/page1.html Cependant, même si page1.html contient des centaines de liens vers des sous-pages, …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.