我目前正在使用一个需要运行32位系统的旧代码。在这项工作中,我偶然发现了一个问题(出于学术兴趣),我想了解其原因。
在32位C中,如果对变量或表达式进行强制转换,则从float到int的强制转换行为似乎有所不同。考虑该程序:
#include <stdio.h>
int main() {
int i,c1,c2;
float f1,f10;
for (i=0; i< 21; i++) {
f1 = 3+i*0.1;
f10 = f1*10.0;
c1 = (int)f10;
c2 = (int)(f1*10.0);
printf("%d, %d, %d, %11.9f, %11.9f\n",c1,c2,c1-c2,f10,f1*10.0);
}
}
直接在32位系统上编译(使用gcc),或者在64位系统上使用-m32
修饰符编译,程序的输出是:
30, 30, 0, 30.000000000 30.000000000
31, 30, 1, 31.000000000 30.999999046
32, 32, 0, 32.000000000 32.000000477
33, 32, 1, 33.000000000 32.999999523
34, 34, 0, 34.000000000 34.000000954
35, 35, 0, 35.000000000 35.000000000
36, 35, 1, 36.000000000 35.999999046
37, 37, 0, 37.000000000 37.000000477
38, 37, 1, 38.000000000 37.999999523
39, 39, 0, 39.000000000 39.000000954
40, 40, 0, 40.000000000 40.000000000
41, 40, 1, 41.000000000 40.999999046
42, 41, 1, 42.000000000 41.999998093
43, 43, 0, 43.000000000 43.000001907
44, 44, 0, 44.000000000 44.000000954
45, 45, 0, 45.000000000 45.000000000
46, 45, 1, 46.000000000 45.999999046
47, 46, 1, 47.000000000 46.999998093
48, 48, 0, 48.000000000 48.000001907
49, 49, 0, 49.000000000 49.000000954
50, 50, 0, 50.000000000 50.000000000
因此,很明显,转换变量和表达式之间存在差异。请注意,如果将float
更改为double
和/或将int
更改为short
或long
,则也会存在该问题,如果程序编译为64位,则该问题也不会出现。
为了澄清,我在这里试图理解的问题不是关于浮点算术/舍入,而是32位内存处理的差异。
对该问题进行了测试:
- Linux版本4.15.0-45-通用(buildd@lgw01-amd 64 -031)(gcc版本7.3.0(Ubuntu 7.3.0- 16 ubuntu 3)),使用以下代码编译程序:gcc -m32 Cast32int.c
- Linux版本2.4.20-8(bhcompile@porky.devel.redhat.com)(gcc版本3.2.2 20030222(Red Hat Linux 3.2.2-5)),程序编译使用:gcc Cast32int.c
任何提示,以帮助我了解这里发生了什么是赞赏。
4条答案
按热度按时间o4tp2gmn1#
在Visual C 2008中,我可以复制它。
检查汇编器,两者之间的区别是中间存储和通过中间转换获取结果:
汇编程序生成的值推送到FPU堆栈上,这些值被转换为64位,然后相乘。对于
c1
,结果然后被转换回浮点数并存储,然后再次检索并放置在FPU堆栈上(并再次转换为double),以调用__ftol2_sse
,这是一个将double转换为int的运行时函数。对于
c2
,中间值 * 不 * 转换为float,并立即传递给__ftol2_sse
函数。对于这个函数,也可以在Convert double to int?中找到答案。装配工:
moiiocjp2#
在“32位系统”中,差异是由于
f1*10.0
使用完整的double
精度,而f10
只有float
精度,因为这是它的类型。f1*10.0
使用double
精度,因为10.0
是double
常量。当f1*10.0
被赋值给f10
时,值会发生变化,因为它被隐式转换为float
,后者的精度较低。如果使用
float
常量10.0f
,则差异消失。考虑第一种情况,
i
为1。然后:f1 = 3+i*0.1
中,0.1
是一个double
常数,所以在double
中执行算术,结果是3.10000000000000088817841970012523233890533447265625。然后,为了将其分配给f1
,将其转换为float
,生成3.099999904632568359375。f10 = f1*10.0;
中,10.0
是一个double
常数,因此在double
中再次执行运算,结果为30.99999904632568359375。对于f10
的赋值,它被转换为float
,结果是31。f10
和f1*10.0
时,我们看到上面给出的值,小数点后有9位,f10
为“31.000000000”,“30.999999046”。如果打印
f1*10.0f
,使用float
常量10.0f
而不是double
常量10.0
,结果将是“31.000000000”而不是“30.999999046”。(The上面使用IEEE-754基本32位和64位二进制浮点运算。)
特别要注意的是:当
f1*10.0
转换为float
以分配给f10
时,f1*10.0
和f10
之间的差异出现。虽然C允许实现在计算表达式时使用额外的精度,但它要求实现在赋值和强制转换时放弃此精度。因此,在符合标准的编译器中,对f10
的赋值必须使用float
精度。这意味着,即使程序是为“64位系统”编译的,差异应该发生。如果不这样做,编译器就不符合C标准。此外,如果将
float
更改为double
,则不会发生到float
的转换,并且不会更改值。在这种情况下,f1*10.0
和f10
之间应该没有差异。考虑到问题报告的差异在“64位”编译中没有表现出来,而在
double
中表现出来,是否准确报告了观察结果值得怀疑。为了澄清这一点,应显示确切的代码,并由第三方复制观察结果。9fkzdhlc3#
C标准对于如何执行浮点运算并不是很严格。该标准允许实现以比所涉及的类型更高的精度进行计算。
在您的例子中,结果可能是因为
c1
是按“float-to-int”计算的,而c2
是按“double-to-int”(甚至更高的精度)计算的。下面是另一个显示相同行为的示例。
我的输出:
这里的技巧是
0.11111111
中1的个数。准确的结果是“2.99999997”。当你改变1的数量时,准确的结果仍然是“2.99...997”的形式。当1的数量增加时,9的数量也增加)。在某个点(也就是一些1),您将到达一个点,将结果存储在浮点数中将结果舍入为“3.0”,而double仍然能够保存“2.999999.....”。然后转换为int将给出不同的结果。
进一步增加1的数量将导致double也将舍入为“3.0”的点,并且转换为int将因此产生相同的结果。
ukqbszuj4#
主要原因是下面两行的
the rounding-control (RC) field of the x87 FPU control register
值不一致。最终,C1和C2的值是不同的。添加gcc编译选项
-mfpmath=387 -mno-sse
,就可以复制了(即使没有-m32,或者把float改成double)像这样:
然后使用gdb调试,断点在0x 0804845 b,运行到i=1
观察FSTP的执行结果,
此时,fpu上控制寄存器的RC值为Round to nearest。
FPU寄存器上的值是30.99999904632568359(80位)。
0x 44(%esp)(
variable "f10"
)上的值为31.0。(四舍五入至最接近值)然后使用gdb调试,断点在0x 0804848 b,运行到i=1
此时,fpu上控制寄存器的RC值为Round towards zero。
FPU寄存器上的值是30.99999904632568359(80位)。值与上述相同
显然,当整数被转换时,小数点被截断,并且值为30。
下面是
main
反编译代码