Selon cette source, la constante de Chaitin Est normal.
Chaque probabilité d'arrêt est un nombre réel normal et transcendantal qui n'est pas calculable, ce qui signifie qu'il n'y a pas d'algorithme pour calculer ses chiffres. En effet, chaque probabilité d'arrêt est aléatoire de Martin-Löf, ce qui signifie qu'il n'y a même pas d'algorithme qui puisse deviner de manière fiable ses chiffres.
En outre, la définition de la normale est que chaque chiffre se produit avec une probabilité égale . Et que chaque duo de chiffres se produit avec probabilité et tous les triplets se produisent avec probabilité etc.
L'oméga de Chaitin est calculé via
L'écriture en binaire, on obtient une liste de 0 et 1. Par exemple,
2^-1=0.1 +
2^-2=0.01 +
2^-3=0.001 +
~skip 2^-4 as it does not halt
2^-5=0.00001 +
...
=\Omega
=0.11101...
On voit bien que la position de chaque bit correspond à l'état d'arrêt du programme de longueur correspondant au bit.
Voici ce avec quoi je me bats
Si est en effet normal, cela signifie que exactement 50% des programmes s'arrêtent et exactement 50% ne s'arrêtent pas. Cela semble très contre-intuitif.
Par exemple, supposons que je génère des programmes Java en concaténant au hasard des caractères uniques. La majorité d'entre eux, je suppose que plus de 99,99% ne compileraient même pas. Cela n'impliquerait-il pas qu'au moins 99,99% d'entre eux ne s'arrêteront pas? Comment pouvons-nous justifier que exactement la moitié s'arrêtera et exactement la moitié ne le sera pas, en vertu de être normal.
Ou Wikipédia est-il incorrect être normal?