wget - utilitaire de ligne de commande pour télécharger le contenu de manière non interactive (peut être appelé à partir de scripts, de tâches cron, de terminaux sans le support de X-Windows, etc.)
J'exécute des milliers de processus d'arrière-plan curl en parallèle dans le script bash suivant START=$(date +%s) for i in {1..100000} do curl -s "http://some_url_here/"$i > $i.txt& END=$(date +%s) DIFF=$(( $END - $START )) echo "It took $DIFF seconds" done J'ai un serveur dédié 49Gb Corei7-920 (non virtuel). Je surveille la …
Je suis sshallé sur mon serveur et j'ai couru wget -r -np zzz.aaa/bbb/cccet il a commencé à fonctionner. Ensuite, ma connexion Internet (chez moi) a été interrompue et je me suis inquiété en supposant que cela wgetavait été hupinterrompu car la sshconnexion était perdue et donc le terminal était mort. …
Je voudrais explorer les liens sous www.website.com/XYZ et télécharger uniquement les liens qui se trouvent sous www.website.com/ABC. J'utilise la commande wget suivante pour obtenir les fichiers que je veux: wget -I ABC -r -e robots=off --wait 0.25 http://www.website.com/XYZ Cela fonctionne parfaitement lorsque j'utilise wget 1.13.4. Mais le problème est que …
Je veux utiliser wget(à partir d'un script php) pour télécharger des fichiers image, mais je ne veux pas télécharger des fichiers d'une certaine taille. Puis-je limiter la taille des fichiers avec wget? Sinon, quelle est la meilleure façon?
J'écris un script qui implique le téléchargement et la manipulation d'un fichier, et je veux m'assurer que le fichier n'est pas incomplet (en raison, par exemple, d'une connexion interrompue) avant de travailler dessus.
J'ai un site sur un serveur qui est essentiellement un tas de pages HTML, d'images et de sons. J'ai perdu mon mot de passe sur ce serveur et je dois récupérer tout ce qui y est stocké. Je peux aller page par page et tout enregistrer mais le site compte …
Je cours wgetcomme ça: wget --mirror --adjust-extension --convert-links --no-cookies http://tshepang.net -o log-main Je reçois un tas de ces messages: Last-modified header missing -- time-stamps turned off. Je suppose que cela signifie que les pages sont de nouveau téléchargées, même si je les ai localement. REMARQUE : je le souhaite pour …
J'utilise wget pour télécharger une page html statique. Le validateur W3C m'indique que la page est encodée en UTF-8. Pourtant, lorsque je cat le fichier après le téléchargement, je reçois un tas de bêtises binaires. Je suis sur Ubuntu, et je pensais que l'encodage par défaut était UTF-8? C'est ce …
Je télécharge des données réparties sur plusieurs fichiers qui ne changent pas une fois publiées. Par conséquent, ce --timestampingn'est pas suffisant, car il vérifie constamment quelle que soit la ressource modifiée, ce qui est, dans mon cas, complètement inutile. --no-clobberconviendrait parfaitement. Malheureusement, cela ne fonctionne pas --convert-links pour une raison …
Par exemple, j'ai un lien http://www.abc.com/123/def/ghi/jkl.mno. Je veux le télécharger en utilisant wgetou curlet obtenir le nom du fichier de sortie comme def_ghi_jkl.mno, où la partie def_ghiest prise à partir du lien. Je mettrai cette wgetcommande dans un script pour télécharger plusieurs fichiers afin qu'il ne puisse pas donner explicitement …
Je veux simplement pouvoir explorer un système de fichiers dropbox, sans beaucoup de charge supplémentaire sur le CPU, la mémoire, le stockage (c'est-à-dire sans enregistrer localement des copies des fichiers distants). Il semble que le client officiel consomme beaucoup de réassurances (et ferait des opérations inutiles comme la synchronisation) - …
Si vous utilisez l'extension d'accolade avec wget, vous pouvez facilement récupérer des images numérotées séquentiellement: $ wget 'http://www.iqandreas.com/sample-images/100-100-color/'{90..110}'.jpg' Il va chercher les 10 premiers fichiers numérotés 90.jpgà 99.jpgtrès bien, mais 100.jpget revenir en avant une 404: Fichier introuvable erreur (je seulement 100 images stockées sur le serveur). Ces fichiers inexistants …
La wgetpage de manuel indique ceci, sous la section pour le --random-waitparamètre: Some web sites may perform log analysis to identify retrieval programs such as Wget by looking for statistically significant similarities in the time between requests. [...] A 2001 article in a publication devoted to development on a popular …
J'appelle une URL avec wget: /usr/bin/wget --read-timeout=7200 https://site_url/s Wget effectue une requête GET toutes les 15 minutes dans ce cas, malgré le délai d'attente défini, pourquoi cela se produit-il? L'appel ne doit être effectué qu'une seule fois, comment puis-je définir wget sur NON réessayer? Je sais que vous pouvez définir, …
wget est un outil très utile pour télécharger des trucs sur Internet rapidement, mais puis-je l'utiliser pour télécharger à partir de sites d'hébergement, comme FreakShare, IFile.it Depositfiles, Uploaded, Rapidshare? Si oui, comment faire?
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.