Connaissez-vous un bon logiciel pour télécharger tous les liens PDF dans une page Web ??
Le système d'exploitation est Windows 7.
Connaissez-vous un bon logiciel pour télécharger tous les liens PDF dans une page Web ??
Le système d'exploitation est Windows 7.
Réponses:
Vous pouvez utiliser wget et exécuter une commande comme celle-ci:
wget --recursive --level=1 --no-directories --no-host-directories --accept pdf http://example.com
Ou avec les options courtes:
wget -r -l 1 -nd -nH -A pdf http://example.com
MISE À JOUR: Étant donné que votre mise à jour indique que vous exécutez Windows 7: utilisez wget pour Windows à partir d'une cmd
invite.
UPDATE 2: Pour une solution graphique - même si elle peut être excessive car elle obtient également d'autres fichiers est DownThemAll
-w 5
Dans votre navigateur, appuyez sur CTRL+ SHIFT+ Jet entrez
var pdflinks = []; Array.prototype.map. call (document.querySelectorAll ("a [href $ = \". pdf \ "]"), function (e, i) {if ((pdflinks || []). indexOf (e.href) == - 1) {pdflinks.push (e.href);}}); console.log (pdflinks.join (""));
Cela reviendra dans la console:
" /superuser/tagged/somepdf1.pdf " " /superuser/tagged/somepdf2.pdf " " /superuser/tagged/somepdf3.pdf "
Maintenant en utilisant wget
avec les options de ligne de commandewget url1 url2 ...
Copiez et collez cela, ouvrez une console, wget
appuyez sur le bouton droit de la souris pour insérer le contenu de votre presse-papiers et appuyez sur entrée.
Pour utiliser un fichier de téléchargement, joignez les lignes avec "\ n" et utilisez le paramètre comme suit wget -i mydownload.txt
Notez que la plupart des autres programmes de téléchargement (GUI) acceptent également d'être appelés avec une liste d'URL séparées par des espaces.
J'espère que cela t'aides. C'est ainsi que je le fais généralement. C'est plus rapide et plus flexible que n'importe quelle extension avec une interface graphique, je dois apprendre et rester familier.
console.log('"' + pdflinks.join('" "') + '"')
- sinon vous n'obtenez pas réellement d'URL citées
Si vous voulez rester dans le navigateur, j'ai écrit une extension Web exactement à cette fin - je travaille sur l'ajout de la possibilité d'enregistrer des PDF d'articles savants avec des titres correctement formatés, mais si vous voulez simplement les télécharger, c'est parfait pour ça.
Cela s'appelle Tab Save et sur la boutique en ligne Chrome ici . Vous n'avez même pas besoin de saisir la liste des URL si vous les ouvrez toutes dans des onglets (mais pour un grand nombre de fichiers, cela peut ralentir un ordinateur, j'ai donc ajouté la possibilité d'ajouter la vôtre).
Sur Google Chrome, il est possible d'utiliser des extensions telles que:
Avec cette extension, vous pouvez télécharger toutes les images, vidéos, pdf, doc et tout autre fichier lié sur la page Web que vous visitez.
Il existe peu d'outils Python qui permettent de télécharger des liens PDF à partir du site Web en fonction des résultats de recherche Google.
Par exemple
google_dl
script (recommandé).
Usage:
./google_dl -s http://www.example.com/ -f pdf ""
gsrchDwn
script (basé sur le script de neo ).
Usage:
./gsrchDwn.py --query "site:http://www.example.com/" --ftype pdf
Remarque: je suis le responsable des deux scripts mentionnés.
Les deux implémentent la xgoogle
bibliothèque Python. Mon fork de cette bibliothèque est basé sur la pkrumins/xgoogle
version .
Connexes: une recherche Web à partir de la ligne de commande Linux .