J'essaie d'utiliser cURL pour télécharger le contenu des pages Web nécessitant l'accès à des formulaires.
Dans un navigateur, cela ressemble à quelque chose comme ça
1.) Login using POST
2.) Pick which page to go to using another POST
3.) Pick another page... using POST
4.) etc.. until I get to the page I want,
then download all textfiles linked to on that page.
J'essaie de faire cela en utilisant un script bash et quelques boucles avec les valeurs qui changent pour chaque POST.
Mon problème est de savoir comment puis-je effectuer plusieurs publications avec cURL? Faut-il des cookies impliqués?
Pour votre information, le site web est http://metagenomics.nmpdr.org/ (MG-RAST).