wget - utilitaire de ligne de commande pour télécharger le contenu de manière non interactive (peut être appelé à partir de scripts, de tâches cron, de terminaux sans le support de X-Windows, etc.)
Si j'ai une liste d'URL séparées par \n, puis-je passer des options wgetpour télécharger toutes les URL et les enregistrer dans le répertoire actuel, mais uniquement si les fichiers n'existent pas déjà?
wget a une telle option -npqui désactive la récupération de fichiers depuis n'importe quel répertoire parent. J'ai besoin de quelque chose de similaire mais un peu plus flexible. Considérer: www.foo.com/bar1/bar2/bar3/index.html Je voudrais tout obtenir, mais pas "plus haut" (dans la hiérarchie arborescente) que bar2(!). Il bar2faut donc aussi aller le …
Nous avons un script qui télécharge la sécurité du mod depuis github qui a récemment commencé à échouer. Les serveurs exécutent CentOS 6 mais RHEL 6 a probablement le même problème. La sortie est: # wget https://github.com/downloads/SpiderLabs/ModSecurity/modsecurity-apache_2.7.1.tar.gz --2014-07-22 18:49:46-- https://github.com/downloads/SpiderLabs/ModSecurity/modsecurity-apache_2.7.1.tar.gz Resolving github.com... 192.30.252.129 Connecting to github.com|192.30.252.129|:443... connected. HTTP request sent, …
Je voudrais appliquer ce correctif , j'ai donc copié le code commençant par "Index: src / options.h" et se terminant par "+ @ item" et l'ai mis dans un nouveau fichier créé dans wgetle dossier de code source de. Ensuite, j'ai fait: $ patch -p0 < name_of_patch (Patch is indented …
J'utilise wgetd'énormes fichiers (plus de 100 Go), puis je compare ma somme md5 à la somme publiée dans le référentiel. Croyez-le ou non, l' md5sumexécution d'un fichier de cette taille prend un certain temps, donc j'aimerais obtenir la somme en parallèle avec le téléchargement. Quelle est la meilleure façon de …
J'écris un script bash qui utilise largement wget. Pour définir tous les paramètres communs en un seul endroit, je les stocke sur des variables. Voici un morceau de code: useragent='--user-agent="Mozilla/5.0 (Windows NT 6.1; WOW64; rv:27.0) Gecko/20100101 Firefox/27.0"' cookies_file="/tmp/wget-cookies.txt" save_cookies_cmd="--save-cookies $cookies_file --keep-session-cookies" load_cookies_cmd="--load-cookies $cookies_file --keep-session-cookies" function mywget { log "#!!!!!!!!!# WGET …
J'essaie de télécharger un fichier via HTTP à partir d'un site Web en utilisant wget. Quand j'utilise: wget http://abc/geo/download/?acc=GSE48191&format=file Je reçois uniquement un fichier appelé index.html?acc=GSE48191. Quand j'utilise: wget http://abc/geo/download/?acc=GSE48191&format=file -o asd.rpm J'obtiens asd.rpm, mais je veux télécharger avec le nom réel, et je ne veux pas avoir à changer …
Je suis assez nouveau wget. J'ai juste besoin de savoir comment définir le dossier de destination où les téléchargements sont enregistrés. Je pense que oui --directory-prefix. Merci,
Je télécharge la page source HTML d'un site Web à l'aide de la cURLcommande. Le problème est que je ne veux pas la plupart du contenu de la page. J'ai juste besoin des 100 premières lignes de la page source. Existe-t-il un moyen d'arrêter le téléchargement de la page après …
Imaginez quelque chose comme ça: $ curlsh http://www.example.org > GET /foo/bar/bam ...output here... > POST /thing/pool ... ... result here.... existe-t-il un outil qui me permet de faire cela?
Je souhaite télécharger https://example.comà l'aide de la wgetcommande, mais elle indique «protocole non pris en charge / non reconnu». J'ai essayé d'utiliser le --secure protocol=''mais cela ne fonctionne pas. J'ai téléchargé le fichier tar depuis GNU wget et j'ai essayé de le configurer mais j'ai échoué. Voici un exemple de …
J'utilise la wgetcommande en arrière-plan comme ceci wget -bq et il imprime Continuant en arrière-plan, pid 31754. Mais lorsque je tape la commande jobs, je ne vois pas mon travail (bien que le téléchargement ne soit pas terminé).
Je veux tester comment mon site se comporterait lorsqu'il serait araignée. Cependant, je souhaite exclure toutes les URL contenant le mot "page". J'ai essayé: $ wget -r -R "*page*" --spider --no-check-certificate -w 1 http://mysite.com/ Le -Rdrapeau est censé rejeter le modèle d'URL contenant le mot "page". Sauf que ça ne …
J'essaie de trouver une méthode très rapide pour déterminer les dimensions d'une image. Je sais que je pourrais mouiller l'image, puis utiliser imagemagick pour déterminer la hauteur et la largeur de l'image. Je crains que ce ne soit pas le moyen le plus rapide de le faire. Je souhaite également …
Un inconvénient majeur curlest que de plus en plus de pages Web voient leur contenu principal peint par une réponse JavaScript AJAX qui se produit après la réponse HTTP initiale. curlne reprend jamais ce contenu post-peint. Donc, pour récupérer ces types de pages Web à partir de la ligne de …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.