Je comprends que la CPU normale effectue des calculs arithmétiques pour les types de nombres entiers (par exemple, les entiers) ainsi que pour les opérations au niveau des bits; la FPU utilise l'arithmétique en virgule flottante. Cependant, j'essaie d'apprendre comment et où l'arithmétique des types de données décimaux ( exemple pour c # ) se produisent dans un processeur typique?