Module Python fournissant une interface de haut niveau pour récupérer des données sur le World Wide Web. Prédécesseur de urllib2. Dans Python 3, urllib2 et urllib ont été réorganisés et fusionnés dans urllib.
J'ai un petit utilitaire que j'utilise pour télécharger un fichier MP3 à partir d'un site Web selon un calendrier, puis crée / met à jour un fichier XML de podcast que j'ai ajouté à iTunes. Le traitement de texte qui crée / met à jour le fichier XML est écrit …
En Python, quelles sont les différences entre les urllib, urllib2, urllib3et requestsmodules? Pourquoi y en a-t-il trois? Ils semblent faire la même chose ...
J'essaie de coder cette chaîne en url avant de soumettre. queryString = 'eventName=' + evt.fields["eventName"] + '&' + 'eventDescription=' + evt.fields["eventDescription"];
Si je fais url = "http://example.com?p=" + urllib.quote(query) Il n'encode /pas %2F(rompt la normalisation OAuth) Il ne gère pas Unicode (il lève une exception) Existe-t-il une meilleure bibliothèque?
Je reçois l'erreur suivante: Exception in thread Thread-3: Traceback (most recent call last): File "/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/threading.py", line 810, in __bootstrap_inner self.run() File "/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/threading.py", line 763, in run self.__target(*self.__args, **self.__kwargs) File "/Users/Matthew/Desktop/Skypebot 2.0/bot.py", line 271, in process info = urllib2.urlopen(req).read() File "/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/urllib2.py", line 154, in urlopen return opener.open(url, data, timeout) File "/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/urllib2.py", …
J'essaie de gratter un site Web, mais cela me donne une erreur. J'utilise le code suivant: import urllib.request from bs4 import BeautifulSoup get = urllib.request.urlopen("https://www.website.com/") html = get.read() soup = BeautifulSoup(html) print(soup) Et j'obtiens l'erreur suivante: File "C:\Python34\lib\encodings\cp1252.py", line 19, in encode return codecs.charmap_encode(input,self.errors,encoding_table)[0] UnicodeEncodeError: 'charmap' codec can't encode characters …
J'essaie donc de créer un script Python qui télécharge des webcomics et les place dans un dossier sur mon bureau. J'ai trouvé ici quelques programmes similaires qui font quelque chose de similaire, mais rien de tout à fait ce dont j'ai besoin. Celui que j'ai trouvé le plus similaire est …
J'essaie d'utiliser Python pour télécharger le code source HTML d'un site Web mais je reçois cette erreur. Traceback (most recent call last): File "C:\Users\Sergio.Tapia\Documents\NetBeansProjects\DICParser\src\WebDownload.py", line 3, in <module> file = urllib.urlopen("http://www.python.org") AttributeError: 'module' object has no attribute 'urlopen' Je suis le guide ici: http://www.boddie.org.uk/python/HTML.html import urllib file = urllib.urlopen("http://www.python.org") s …
Après utilisation cgi.parse_qs(), comment convertir le résultat (dictionnaire) en chaîne de requête? Vous cherchez quelque chose de similaire à urllib.urlencode().
Je voudrais utiliser urllib.quote(). Mais python (python3) ne trouve pas le module. Supposons que j'ai cette ligne de code: print(urllib.quote("châteu", safe='')) Comment importer urllib.quote? import urllibou les import urllib.quotedeux donnent AttributeError: 'module' object has no attribute 'quote' Ce qui me trouble, c'est qu'il urllib.requestest accessible viaimport urllib.request
Quand j'essaye de suivre l' exemple du Python Wiki lié au codage d'URL: >>> import urllib >>> params = urllib.urlencode({'spam': 1, 'eggs': 2, 'bacon': 0}) >>> f = urllib.urlopen("http://www.musi-cal.com/cgi-bin/query", params) >>> print f.read() Une erreur est générée sur la deuxième ligne: Traceback (most recent call last): File "<stdin>", line 1, …
J'utilise BeautifulSoup pour gratter une URL et j'ai eu le code suivant import urllib import urllib2 from BeautifulSoup import BeautifulSoup url = "http://www.example.com/servlet/av/ResultTemplate=AVResult.html" req = urllib2.Request(url) response = urllib2.urlopen(req) the_page = response.read() soup = BeautifulSoup(the_page) soup.findAll('td',attrs={'class':'empformbody'}) Maintenant, dans le code ci-dessus, nous pouvons utiliser findAllpour obtenir des balises et des …
J'essaie d'automatiser le téléchargement des données de stock historiques à l'aide de python. L'URL que j'essaie d'ouvrir répond par un fichier CSV, mais je ne parviens pas à ouvrir en utilisant urllib2. J'ai essayé de changer d'agent utilisateur comme spécifié dans quelques questions plus tôt, j'ai même essayé d'accepter les …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.