Dans la théorie du codage, «la qualité d'un code» signifie combien d'erreurs de canal peuvent être corrigées, ou mieux, le niveau de bruit maximal auquel le code peut faire face.
Afin d'obtenir de meilleurs codes, les codes sont conçus à l'aide d'un grand alphabet (plutôt que binaire). Et puis, le code est bon s'il peut traiter un grand nombre de "symboles" erronés.
Pourquoi est-ce que ce n'est pas considéré comme tricher? Je veux dire, ne devrions-nous pas seulement nous soucier de ce qui se passe lorsque nous "traduisons" chaque symbole en une chaîne binaire? Le "taux d'erreur binaire" est différent du taux "d'erreur de symbole". Par exemple, le taux d'erreur sur les bits ne peut pas dépasser 1/2 tandis que (si je comprends bien), avec un alphabet suffisamment grand, l'erreur de symbole peut aller jusqu'à . Est-ce parce que nous restreignons artificiellement le canal pour ne changer que des "symboles" plutôt que des bits, ou est-ce parce que le code est en fait meilleur?