La première chose qui vous vient à l'esprit comme quelque chose que vous pourriez trouver fascinant est la complexité de Kolmogorov; Je le trouve certainement fascinant, et comme vous ne l'avez pas mentionné, j'ai pensé que cela valait la peine d'être mentionné.
Cela étant dit, une approche plus générale pour répondre à cette question pourrait être basée sur la théorie des langages et des automates. Les automates finis déterministes sont des processeurs de chaîne O (n). Autrement dit, étant donné une chaîne de longueur n, ils traitent la chaîne en n étapes précisément (cela dépend en grande partie de la façon dont vous définissez les automates finis déterministes; cependant, un DFA ne nécessite certainement pas plus d'étapes). Les automates finis non déterministes reconnaissent les mêmes langages (ensembles de chaînes) que les DFA et peuvent être transformés en DFA, mais pour simuler un NFA sur une machine séquentielle et déterministe, vous devez généralement explorer un "espace de recherche" en forme d'arbre qui peut augmenter la dramatiquement la complexité. Les langages réguliers ne sont pas très "complexes" au sens informatique,
Vous pouvez également regarder d'autres niveaux de la hiérarchie Chomsky des langues - sans contexte déterministe, sans contexte (y compris les langues sans contexte non déterministe, qui ne peuvent pas nécessairement être reconnues par les automates déterministes), les langues contextuelles, récursives et récursives les langues énumérables et les langues indécidables.
Les différents automates diffèrent principalement par leur stockage externe; c'est-à-dire, quel stockage externe est nécessaire pour que les automates traitent correctement les langages d'un certain type. Les automates finis n'ont pas de stockage externe; Les PDA ont une pile et les machines Turing ont une bande. Vous pourriez ainsi interpréter la complexité d'un problème de programmation particulier (qui correspond à un langage) comme étant liée à la quantité ou au type de stockage requis pour le reconnaître. Si vous n'avez besoin d'aucun stockage fixe ou limité pour reconnaître toutes les chaînes dans une langue, c'est une langue normale. Si vous n'avez besoin que d'une pile, vous disposez d'un langage sans contexte. Etc.
En général, je ne serais pas surpris si les langues plus élevées dans la hiérarchie de Chomsky (donc avec une complexité plus élevée) ont également tendance à avoir une entropie plus élevée au sens de la théorie de l'information. Cela étant dit, vous pourriez probablement trouver de nombreux contre-exemples à cette idée, et je ne sais pas du tout si elle est valable.
En outre, cela pourrait être mieux demandé au StackExchange "cs théorique" (cstheory).