En écrivant une ftol
fonction optimisée , j'ai trouvé un comportement très étrange dans GCC 4.6.1
. Permettez-moi de vous montrer d'abord le code (pour plus de clarté, j'ai marqué les différences):
fast_trunc_one, C:
int fast_trunc_one(int i) {
int mantissa, exponent, sign, r;
mantissa = (i & 0x07fffff) | 0x800000;
exponent = 150 - ((i >> 23) & 0xff);
sign = i & 0x80000000;
if (exponent < 0) {
r = mantissa << -exponent; /* diff */
} else {
r = mantissa >> exponent; /* diff */
}
return (r ^ -sign) + sign; /* diff */
}
fast_trunc_two, C:
int fast_trunc_two(int i) {
int mantissa, exponent, sign, r;
mantissa = (i & 0x07fffff) | 0x800000;
exponent = 150 - ((i >> 23) & 0xff);
sign = i & 0x80000000;
if (exponent < 0) {
r = (mantissa << -exponent) ^ -sign; /* diff */
} else {
r = (mantissa >> exponent) ^ -sign; /* diff */
}
return r + sign; /* diff */
}
Semble la même chose non? Eh bien, GCC n'est pas d'accord. Après la compilation avec gcc -O3 -S -Wall -o test.s test.c
ceci est la sortie de l'assembly:
fast_trunc_one, généré:
_fast_trunc_one:
LFB0:
.cfi_startproc
movl 4(%esp), %eax
movl $150, %ecx
movl %eax, %edx
andl $8388607, %edx
sarl $23, %eax
orl $8388608, %edx
andl $255, %eax
subl %eax, %ecx
movl %edx, %eax
sarl %cl, %eax
testl %ecx, %ecx
js L5
rep
ret
.p2align 4,,7
L5:
negl %ecx
movl %edx, %eax
sall %cl, %eax
ret
.cfi_endproc
fast_trunc_two, généré:
_fast_trunc_two:
LFB1:
.cfi_startproc
pushl %ebx
.cfi_def_cfa_offset 8
.cfi_offset 3, -8
movl 8(%esp), %eax
movl $150, %ecx
movl %eax, %ebx
movl %eax, %edx
sarl $23, %ebx
andl $8388607, %edx
andl $255, %ebx
orl $8388608, %edx
andl $-2147483648, %eax
subl %ebx, %ecx
js L9
sarl %cl, %edx
movl %eax, %ecx
negl %ecx
xorl %ecx, %edx
addl %edx, %eax
popl %ebx
.cfi_remember_state
.cfi_def_cfa_offset 4
.cfi_restore 3
ret
.p2align 4,,7
L9:
.cfi_restore_state
negl %ecx
sall %cl, %edx
movl %eax, %ecx
negl %ecx
xorl %ecx, %edx
addl %edx, %eax
popl %ebx
.cfi_restore 3
.cfi_def_cfa_offset 4
ret
.cfi_endproc
C'est une différence extrême . Cela apparaît également sur le profil, fast_trunc_one
c'est environ 30% plus rapide que fast_trunc_two
. Maintenant ma question: qu'est-ce qui cause cela?
-S -O3 -da -fdump-tree-all
. Cela créera de nombreux instantanés de la représentation intermédiaire. Parcourez-les (ils sont numérotés) côte à côte et vous devriez pouvoir trouver l'optimisation manquante dans le premier cas.
int
en unsigned int
et voyez si la différence disparaît.
(r + shifted) ^ sign
n'est pas la même que r + (shifted ^ sign)
. Je suppose que cela déroute l'optimiseur? FWIW, MSVC 2010 (16.00.40219.01) produit des listes qui sont presque identiques les unes aux autres: gist.github.com/2430454