J'ai essayé la commande suivante:
$ wget -q --tries=10 --timeout=20 --spider http://google.com
(À partir de ce poste SO . Je veux vérifier ma connexion Internet dans bash.)
Je reçois la sortie suivante:
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:50-- http://google.com/
Connecting to 127.0.0.1:3128... connected.
Proxy request sent, awaiting response... 302 Found
Location: http://www.google.de/?gfe_rd=cr&ei=k_IIVreaN-yH8Qfe1Yu4CA [following]
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:50-- http://www.google.de/?gfe_rd=cr&ei=k_IIVreaN-yH8Qfe1Yu4CA
Connecting to 127.0.0.1:3128... connected.
Proxy request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Remote file exists and could contain further links,
but recursion is disabled -- not retrieving.
Cela semble correct, quelle que soit l'exécution de la cmd sudo
, je reçois ceci:
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:27-- http://google.com/
Resolving google.com (google.com)... failed: Name or service not known.
wget: unable to resolve host address ‘google.com’
J'ai besoin de cette ligne dans un script, que j'appelle avec sudo
et donc elle échoue toujours.
Quelqu'un peut-il me dire la raison? Comment puis-je travailler autour de ça?
wget
google.com ne semble pas être un bon moyen de vérifier le bon fonctionnement d'une connexion Internet: vous pouvez par exemple utiliser une connexion autorisant les connexions HTTP avec Google, mais interdisant ce que votre script souhaite réellement faire. ; ou Google pourrait interdire à wget l’accès à leur site. Quel est le problème réel que vous avez, pour lequel vous pensez que sudo wget blah
c'est une solution potentielle?