Peut-être que tous les principaux algorithmes / préférés d'intérêt pour ce public ont été mentionnés à ce stade. cependant, quelques autres méritent d'être mentionnés pour leur exhaustivité. & une analyse de ce qui est considéré comme un algorithme significatif est pertinente ici.
Dans les domaines de la CS & IT, il semble y avoir un phénomène observé il y a longtemps dans l'IA appelé "déplacer les poteaux de but" . Il s’agit d’un phénomène psychologique dans lequel le domaine progresse relativement rapidement mais où les gens s’adaptent rapidement à la «nouvelle normalité» et prennent des avancées réelles, voire révolutionnaires, comme banales ou non, rétrospectivement, après avoir accompli, c’est-à-dire minimisées ou minimisées. Cette question rend bien compte de la façon dont les algorithmes passent de la recherche et développement au "déploiement". citant l'auteur de la question dans des commentaires ultérieurs:
En fait, une fraction négligeable de tout le code écrit est la mise en œuvre de tout ce qui est intéressant d'un point de vue algorithmique.
mais ceci est problématique et constitue fondamentalement une redéfinition du mot "algorithme" centrée sur le TCS. vraisemblablement les algorithmes intéressants sont avancés. cela signifie-t-il que si un problème est réduit à un algorithme avancé, ce n'est plus "intéressant"? et "avancé" est clairement une cible en mouvement. il existe donc un moyen de définir les "algorithmes" de manière étroite ou large . il semble que la définition du TCS change en fonction du contexte, mais il convient de noter que même dans le TCS, il existe une tendance à la définition large, par exemple dans ce qu'on appelle "l'objectif algorithmique" .
Parfois, les algorithmes les plus répandus sont aussi les plus négligés! Internet et WWW constituent un vaste environnement / quasi-écologie pour les algorithmes. encore relativement jeune et âgé d’environ 2 décennies (inventé en 1991), il a connu une croissance massive et exponentielle en peu de temps. La croissance du site WWW a probablement même dépassé la célèbre loi exponentielle Moores.
Internet / WWW sont supportés par de nombreux algorithmes sophistiqués. Internet possède des algorithmes de routage complexes intégrés dans les routeurs (alimentant à nouveau des entreprises de plusieurs milliards de dollars, telles que Cisco). une théorie avancée y est applicable, par exemple dans les algorithmes de routage . ces algorithmes ont fait l’objet de recherches émergentes, avancées / à la pointe de la technologie il y a plusieurs décennies, mais ils sont maintenant tellement ajustés et bien compris que c’est un peu invisible.
il ne faut pas oublier de si tôt qu'il y a plusieurs décennies, des chercheurs renommés n'étaient même pas certains du fonctionnement ou de l'impossibilité du monde de l'internet (comme le montrent les premières recherches sur la commutation de paquets, un nouveau modèle de conception radicalement différent de celui qui existait auparavant), et Il y a quelques années encore, on craignait que le système échoue à un moment donné et commence à échouer en raison de pics de volume énormes.
il utilise également une détection / correction d'erreur sophistiquée . Internet est probablement le plus grand système, le plus tolérant aux pannes jamais construit par les humains, toujours en croissance.
Ensuite, il existe des arguments solides en faveur de l’avancée des algorithmes qui alimentent le WWW. Les serveurs HTTP et Web sont hautement optimisés et utilisent également des protocoles de sécurité / cryptage avancés (HTTPS). la logique de rendu d'une page Web est devenue extrêmement avancée en HTML5 et CSS3 , avec le Javascript langage de programmation .
Le CSS relativement nouveau repose sur divers principes similaires à ceux de la programmation orientée objet, tels que la réutilisabilité et l'héritage. en parlant de composition, TeX est un système de composition scientifique important, complexe en interne (pas si différent d’un langage de programmation) inventé par Knuth et qui peut maintenant être rendu sur des pages Web (et est utilisé dans des centaines de milliers d’articles scientifiques ou plus).
Un autre domaine relativement nouveau d’algorithmes reposant sur l’Internet et qui reposent toujours sur l’ intelligence collective . Le logiciel stackexchange lui-même est un exemple de système sophistiqué d’intelligence collective. les réseaux sociaux présentent également les caractéristiques clés de l'intelligence collective et des fonctionnalités sont ajoutées en permanence pour augmenter cette intelligence (par exemple, les "Likes" de Facebook ne datent que de quelques années). le domaine des systèmes de notation repose sur des algorithmes de filtrage collaboratif et continue d'évoluer en fonction de nouvelles recherches et applications.
Bref, tous les succès révolutionnaires transformant l'expérience humaine quotidienne vont bien au-delà des «objectifs de terrain». comme l'indique le titre de la question, tous les principaux algorithmes sont déployés . maintenant si omniprésent et invisible qu’il ressemble à l’expression «informatique», «une partie de la plomberie».