Je regardais cette lecture du MIT sur la complexité de calcul et à la minute 15h00, Erik Demaine se lance dans une démonstration pour montrer ce qui est indiqué dans le titre de cette question. Cependant, je ne peux pas suivre son raisonnement, dans la pratique ce qu'il dit est le suivant:
nous pouvons énoncer un problème de décision sous la forme d'une chaîne de et qui, en pratique, est la table de vérité de la fonction.
Il poursuit en disant qu'un problème de décision est une chaîne infinie de bits alors qu'un programme est une chaîne finie de bits et jusqu'ici aucun problème. Ce que je ne comprends pas, c'est la suite de la preuve à partir de là: les problèmes de décision sont dans
car vous pouvez mettre un point décimal avant la chaîne représentant le problème, obtenant ainsi la partie décimale d'un réel
for example if you have 0111011010101010101... it could become x.0111011010101010101...
Un programme est "juste" un entier dans car il s'agit d'une chaîne finie de bits. Le point que je n'arrive pas à comprendre est comment il est possible qu'un problème de décision soit comparable à un nombre réel au lieu d'un entier ... Je veux dire, si nous utilisons l'argument de "mettre un point devant le nombre" ne pourrait pas le même raisonnement s'applique-t-il également au nombre d'algorithmes possibles pouvant être produits?