Le domaine de l'informatique distribuée a été terriblement mis de côté pour développer une seule théorie mathématique décrivant les algorithmes distribués. Il existe plusieurs «modèles» et cadres de calcul distribué qui ne sont tout simplement pas compatibles les uns avec les autres. L’explosion des propriétés temporelles variables (asynchronisme, synchronie, synchronie partielle), diverses primitives de communication (transmission du message par rapport à la mémoire partagée, diffusion par rapport à la monodiffusion), plusieurs modèles de défaillance (échec, reprise après incident, omission par envoi, byzantin, etc.). on) nous a laissé un nombre incalculable de modèles de systèmes, de cadres et de méthodologies, ce qui fait que la comparaison des résultats de solvabilité relative et des limites inférieures entre ces modèles et ces cadres est devenue ardue, insoluble et parfois même impossible.
Ma question est très simple: pourquoi est-ce le cas? En quoi l'informatique distribuée est-elle si fondamentalement différente (de son homologue séquentiel) que nous n'avons pas été en mesure de regrouper les recherches dans une théorie unifiée de l'informatique distribuée? Avec l'informatique séquentielle, les machines de Turing, les fonctions récursives et le calcul lambda sont tous équivalents. S'agissait-il simplement d'un coup de chance ou avons-nous vraiment fait du bon travail en encapsulant l'informatique séquentielle d'une manière qui reste à accomplir avec l'informatique distribuée?
En d'autres termes, l'informatique distribuée est-elle inhérente à une théorie élégante (et si oui, comment et pourquoi?), Ou sommes-nous simplement pas assez intelligents pour découvrir une telle théorie?
La seule référence que je puisse trouver qui aborde ce problème est la suivante: " Évaluation de deux décennies de recherche sur la théorie de l'informatique répartie " par Fischer et Merritt DOI: 10.1007 / s00446-003-0096-6
Toute référence ou exposition serait vraiment utile.