Je sais que cela a déjà été dit, mais je recommande fortement le requests
package Python.
Si vous avez utilisé des langages autres que python, vous pensez probablement urllib
et urllib2
êtes facile à utiliser, pas beaucoup de code et très performant, c'est comme ça que je pensais. Mais le requests
paquet est si incroyablement utile et court que tout le monde devrait l'utiliser.
Tout d'abord, il prend en charge une API entièrement reposante et est aussi simple que:
import requests
resp = requests.get('http://www.mywebsite.com/user')
resp = requests.post('http://www.mywebsite.com/user')
resp = requests.put('http://www.mywebsite.com/user/put')
resp = requests.delete('http://www.mywebsite.com/user/delete')
Peu importe si GET / POST, vous n'avez plus jamais à encoder de paramètres, il prend simplement un dictionnaire comme argument et c'est bon à utiliser:
userdata = {"firstname": "John", "lastname": "Doe", "password": "jdoe123"}
resp = requests.post('http://www.mywebsite.com/user', data=userdata)
De plus, il a même un décodeur JSON intégré (encore une fois, je sais que ce json.loads()
n'est pas beaucoup plus à écrire, mais cela est certainement pratique):
resp.json()
Ou si vos données de réponse ne sont que du texte, utilisez:
resp.text
Ce n'est que la pointe de l'iceberg. Voici la liste des fonctionnalités du site de requêtes:
- Domaines internationaux et URL
- Maintien en vie et mise en commun des connexions
- Sessions avec persistance des cookies
- Vérification SSL de type navigateur
- Authentification de base / Digest
- Cookies clés / valeur élégants
- Décompression automatique
- Organes de réponse Unicode
- Téléchargements de fichiers en plusieurs parties
- Délais de connexion
- Prise en charge de .netrc
- Élément de liste
- Python 2.6—3.4
- Thread-safe.