Je ne comprends pas pourquoi nous nous soucions de différentes représentations pour un zéro positif et un zéro négatif.
Je me souviens vaguement de la lecture des affirmations selon lesquelles la représentation négative égale à zéro est extrêmement importante dans les programmes impliquant des nombres complexes. Je n'ai jamais eu l'occasion d'écrire du code impliquant des nombres complexes, alors je suis un peu déconcerté de savoir pourquoi.
L'article de Wikipedia sur le concept n'est pas particulièrement utile. il ne fait que de vagues affirmations sur le zéro signé, rendant certaines opérations mathématiques plus simples en virgule flottante, si je comprends bien. Cette réponse répertorie quelques fonctions qui se comportent différemment. Vous pouvez peut-être en déduire quelque chose à partir des exemples si vous savez comment les utiliser. (Bien que, l'exemple particulier des racines carrées complexes semble plat fausse, puisque les deux nombres sont mathématiquement équivalents, à moins que je n’aie un malentendu.) Mais j’ai été incapable de trouver une déclaration claire du genre de problème que vous auriez eu si cela n’était pas là. Les ressources les plus mathématiques que j'ai pu trouver indiquent qu'il n'y a pas de distinction mathématique entre les deux, et l'article de Wikipedia semble suggérer que cela est rarement vu en dehors de l'informatique en dehors de la description des limites.
Alors, pourquoi un zéro négatif est-il précieux en informatique? Je suis sûr que je manque juste quelque chose.
sqrt(-1+0i) = i
et sqrt(-1-0i) = -i
, bien que maquillé avec la syntaxe appropriée pour certains langages de programmation, je crois. Je vais éditer pour être plus clair.