Réponses:
Vous pouvez utiliser la wget
commande pour télécharger la page et la lire dans une variable comme:
content=$(wget google.com -q -O -)
echo $content
Nous utilisons l' -O
option wget
dont nous permet de spécifier le nom du fichier dans lequel wget
vide le contenu de la page. Nous spécifions -
d'obtenir le vidage sur la sortie standard et de le collecter dans la variable content
. Vous pouvez ajouter l' -q
option silencieuse pour désactiver la sortie wget.
Vous pouvez utiliser la commande curl pour cela ainsi que:
content=$(curl -L google.com)
echo $content
Nous devons utiliser l' -L
option car la page que nous demandons peut avoir été déplacée. Dans ce cas, nous devons récupérer la page à partir du nouvel emplacement. L' option -L
ou --location
nous aide avec cela.
src
attribut de l'élément correct, puis télécharger cette page. Si vous installez tq , cette commande devrait le faire:curl -s http://ww1.watchop.io/manga2/read/one-piece/1/4 | tq -j -a src "#imgholder a img" | xargs wget
convert_links = on
avec l' -O-
option. Il échoue avec erreur -k can be used together with -O only if outputting to a regular file.
. Est-ce attendu?
Il existe de nombreuses façons d'obtenir une page à partir de la ligne de commande ... mais cela dépend aussi si vous voulez la source du code ou la page elle-même:
Si vous avez besoin de la source du code:
avec curl:
curl $url
avec wget:
wget -O - $url
mais si vous voulez obtenir ce que vous pouvez voir avec un navigateur, lynx peut être utile:
lynx -dump $url
Je pense que vous pouvez trouver tellement de solutions à ce petit problème, vous devriez peut-être lire toutes les pages de manuel pour ces commandes. Et n'oubliez pas de remplacer $url
par votre URL :)
Bonne chance :)
Il y a la wget
commande ou le curl
.
Vous pouvez maintenant utiliser le fichier que vous avez téléchargé avec wget. Ou vous pouvez gérer un flux avec curl.
Ressources :
Si LWP est installé, il fournit un binaire nommé simplement " GET ".
$ GET http://example.com <! DOCTYPE HTML PUBLIC "- // W3C // DTD HTML 4.01 Transitional // EN"> <HTML> <HEAD> <META http-equiv = "Content-Type" content = "text / html; charset = utf-8"> <TITLE> Exemple de page Web </TITLE> </HEAD> <body> <p> Vous avez accédé à cette page Web en tapant & quot; exemple.com & quot ;, & quot; example.net & quot;, & quot; example.org & quot ou & quot; exemple.edu & quot; dans votre navigateur Web. </p> <p> Ces noms de domaine sont réservés pour une utilisation dans la documentation et ne sont pas disponibles pour l'enregistrement. Voir <a href="http://www.rfc-editor.org/rfc/rfc2606.txt"> RFC 2606 </a>, section 3. </p> </BODY> </HTML>
wget -O-
, curl
et lynx -source
se comportent de la même manière.
Vous pouvez utiliser curl
ou wget
pour récupérer les données brutes, ou vous pouvez utiliser w3m -dump
pour avoir une belle représentation textuelle d'une page Web.
$ foo=$(w3m -dump http://www.example.com/); echo $foo
You have reached this web page by typing "example.com", "example.net","example.org" or "example.edu" into your web browser. These domain names are reserved for use in documentation and are not available for registration. See RFC 2606, Section 3.