Dans mon expérience en programmation, je dois souvent décider si je dois utiliser des nombres flottants ou doubles pour mes nombres réels. Parfois, je privilégie le double, parfois le double, mais cela semble plus subjectif. Si je devais être confronté pour défendre ma décision, je ne donnerais probablement pas de bonnes raisons.
Quand utilisez-vous float et quand utilisez-vous double? Utilisez-vous toujours double, uniquement lorsque des contraintes de mémoire sont présentes, vous optez pour float? Ou utilisez-vous toujours float, sauf si l'exigence de précision vous oblige à utiliser double? Existe-t-il des différences substantielles en ce qui concerne la complexité de calcul des arithémétiques de base entre float et double? Quels sont les avantages et les inconvénients de l'utilisation de float ou double? Et avez-vous même utilisé long double?