Je regardais cette vidéo sur les valeurs maximales et minimales des entiers signés.
Prenons un exemple de valeur signée positive - 0000 0001 Le premier bit indique que le nombre est positif et les 7 derniers bits sont le nombre lui-même. Il est donc facilement interprété comme +1.
Prenons maintenant un exemple de valeur signée négative - 1000 0000 qui se révèle être -8. D'accord, l'ordinateur peut comprendre qu'il s'agit d'une valeur négative à cause du premier bit, mais comment diable comprend-il que 000 0000 signifie -8?
En général, comment les valeurs signées négatives sont-elles stockées / interprétées dans un ordinateur?