Pour répondre immédiatement à votre question: Non, le World Wide Web tel que nous le connaissons maintenant ne dépend pas de HTTP. Il n'a jamais dépendu de HTTP. Il suffit d'un protocole sur un transport fiable qu'un client peut utiliser pour demander une ressource à un serveur. Tout ce qui répond à ces exigences minimales fera l'affaire. Il utilise HTTP maintenant parce que c'était le meilleur protocole disponible lorsque le Web était devenu populaire. Quand quelque chose de mieux que HTTP arrive, comme cela semble être le cas avec SPDY , alors HTTP se fondra également dans l'historique en tant que protocoles avant qu'il ne le soit.
Il dépend cependant du HTML et, dans une moindre mesure, des différentes technologies qui se sont développées autour de lui, telles que CSS, JavaScript, etc. , et un site Web bien conçu d'aujourd'hui fonctionnera réellement dans les navigateurs connus les plus anciens (comme un site Web bien conçu d'il y a 20 ans fonctionnera réellement dans les navigateurs d'aujourd'hui).
Le reste de cette réponse est tiré de mon expérience et peut être ignoré, mais ...
Jusqu'à présent, les réponses existantes ont principalement cité des références d'aujourd'hui, ce qui est regrettable, car Internet d'aujourd'hui contient très peu d'informations sur l'époque antérieure au "boom des technologies de l'information" de la fin des années 90. Certaines de ces références ne correspondent pas à mon expérience: j'étais sur Internet des années avant son ouverture au public, et j'avais une bonne vue pour regarder l'essor du Web.
HTTP a été conçu pour être un protocole efficace pour transférer des pages Web et d'autres fichiers vers et depuis des serveurs. Il a corrigé diverses lacunes dans FTP qui en font un choix moins que tout à fait pratique pour servir des pages Web. En particulier, à l'époque, le FTP était principalement utilisé en mode "actif", car les pare-feu et le NAT étaient pour la plupart inexistants. FTP avait un mode "passif" à partir de 1985, mais il n'était pas vraiment nécessaire jusqu'à ce que de grandes parties d'Internet commencent à se déplacer derrière leurs rideaux de fer. Dans les deux modes, avoir à ouvrir plusieurs connexions pour transférer des fichiers était au mieux inefficace; HTTP pourrait considérablement surpasser FTP (ou même Gopher), ce qui était important lorsque la connexion à domicile de pratiquement tout le monde était commutée, et une connexion très lente à cela.
Et même si quelques pages Web étaient servies via Gopher, c'était principalement parce que les clients Web courants de l'époque supportaient plusieurs protocoles: HTTP, FTP et Gopher. Ils devaient le faire, afin de gagner la conscience. À cette époque, la «recherche sur Internet» se faisait avec un programme appelé Archie, et qui ne vous parlait que des fichiers sur les sites FTP. Vous avez ensuite dû utiliser Veronica ou Jughead pour rechercher Gopherspace. Il y avait aussi WAIS, peut-être le premier moteur de recherche de texte intégral significatif, mais ce que Wikipedia ne vous dira pas, c'est qu'il s'agissait d'une merde largement surdimensionnée, et vous ne pouviez rien trouver à moins de savoir sur quel site le rechercher. commencer avec.
Je me souviens encore, en 1995 environ, d'avoir eu des conversations pendant plusieurs semaines avec un chercheur sur le sida au sujet du Web et d'avoir essayé de le persuader qu'il devrait essayer ce truc sur la mosaïque. Ce qui l'a finalement convaincu, c'est que Johns Hopkins venait de mettre en place une base de données médicales dont il avait besoin sur le Web, via HTTP, et un navigateur Web était le seul moyen d'y accéder. J'ai eu de nombreuses conversations avec différentes personnes dans le même sens.
À l'époque, afin de prendre pied, les agents utilisateurs du Web prenaient généralement en charge FTP et Gopher, de sorte que les gens pouvaient utiliser un seul programme pour afficher ou télécharger n'importe quelle ressource via l'un de ces protocoles. Cela a fonctionné et le Web a décollé, mais même le téléchargement d'une page Web en texte seulement était douloureusement lent à 2400 bps, et beaucoup de gens (moi y compris) n'avaient toujours rien de mieux lorsque le Net a finalement été ouvert au public. Il était souvent plus rapide de se connecter via telnet à votre compte shell Unix et d' lynx
y exécuter ou de telnet au public lynx
que l'Université du Kansas a couru. L'université avait beaucoup de bande passante, et de cette façon, vous n'aviez qu'à voir un écran à la fois (il fallait environ quatre secondes pour rafraîchir un terminal 80x24 à 2400 bps).
Ainsi, à partir d' un seul programme, que ce soit lynx
, mosaic
ou le client de référence que le CERN a écrit , mais personne n'a vraiment jamais utilisé, vous pouvez accéder à pratiquement tout sur Internet à l'époque, que ces programmes généralement cachés ou de-souligné le transport spécifique utilisé . (C'est-à-dire que personne n'a regardé sa barre d'adresse même alors. Et Lynx n'afficherait pas l'URL actuelle à moins que vous ne l'ayez spécifiquement demandée.)
Étant donné que HTTP était plus rapide et plus flexible que les autres protocoles, et que HTML était clairement un langage plus puissant pour représenter un document que ce qui était auparavant disponible, son décollage était à peu près inévitable. Gopher n'a jamais eu de chance; il n'a existé sous une forme significative que pendant quelques années. Et FTP reste utile car il est un peu mieux à transférer des fichiers volumineux ou des structures de répertoires entiers à la fois (supposant que vous avez tar
et gzip
et connaître les incantations secrètes) et jusqu'à récemment , il était mieux pour téléchargement des données.
Le point que j'essaie de ramener à la maison ici est que le Web est indépendant des transports. Il devait l'être pour commencer, et le fait qu'il en soit signifie qu'il continuerait presque certainement d'être utilisé pendant des décennies, voire des siècles.