编程语言计算0.1+0.2精度误差的问题

  在平时如果有人问你0.1+0.2=?的问题,你可能会鄙视他,但在计算机中这却是一个比较头疼的问题,先看一个例子:

编程语言计算0.1+0.2精度误差的问题_第1张图片

结果是多少?

答案是:

编程语言计算0.1+0.2精度误差的问题_第2张图片

  没错,为什么不是期望的0.3呢?

  先不说为什么,先看看在别的编程语言中的同样的情况:

在java中:

编程语言计算0.1+0.2精度误差的问题_第3张图片

在python中:

编程语言计算0.1+0.2精度误差的问题_第4张图片


为什么呢?

  我们知道,计算机中存储的都是二进制的0和1,而我们现实中的数存入计算机中转换为二进制时有可能不能整除,也就是不能正好整除,所以用二进制表示现实中的数并计算就产生了误差。

  把十进制的0.1和0.2转换为二进制:

0.1 => 0.0001 1001 1001 1001…(1001无限循环)
0.2 => 0.0011 0011 0011 0011…(0011无限循环)

但是我们计算机的硬件存储的位数是有限制的不可能无限循环下去,一般双精度浮点数总共占用64位,其中最多53位为有效精度数字(包括符号位),所以存储时:

0.1=>0.0001 1001 1001 1001 1001 1001 1001 1001 1001 1001 1001 1001 1001

0.2=>0.0011 0011 0011 0011 0011 0011 0011 0011 0011 0011 0011 0011 0011

0.1+0.2=>

          0.0100 1100 1100 1100 1100 1100 11001 100 1100 1100 1100 1100 1100

转换为十进制就是:0.30000000000000004

 

 

参考:http://blog.csdn.net/zcczcw/article/details/7362473

你可能感兴趣的:(JQuery相关)