从“四舍五入”谈起

起源

前几天改了同事遗留的一个四舍五入的缺陷,颇有探索的价值。问题简化如下:

总邀约人数11人,已完成6人,邀约完成率应显示为55%,实际显示54%

废话不多说翻代码:

 C#:
 int CalcPercentageInt(int a, int b)
 {
     if (b == 0 || a == 0) return 0;
     int result = 100 * a / b;
     return result;
 }

简短的一句代码有诸多想法:

1.四舍五入的代码应该放到前端去做,能稍微减轻服务器压力。

  1. int做输入参数,要考虑精度损失问题。
    3.输出参数为什么是int, 又要考虑精度问题,直接输出格式化的好的百分比不就行了

后面又有同事改造成如下:

 int CalcPercentageInt(int a, int b)
 {
     if (b == 0 || a == 0) return 0;
     string result = ((double)a / b).ToString("f2"); ;
     return (int)(Convert.ToDouble(result) * 100);
 }

执行以上运算结果是55,是对的。然后他就提测了,结果被打回来了。

总邀约人数7人,已完成2人,邀约完成率应显示为29%,实际显示28%

然后缺陷转到我名下了,我改为如下版本:

int CalcPercentageIntBak(double a, double b)
 {
     if (b == 0 || a == 0) return 0;
     var result = Math.Round(a/b,2)*100 ;// 这一步 2/7 得到28.999999999999996
     return (int)result;
 }

这样也不行,改为decimal可以了

int CalcPercentageInt(decimal a, decimal b)
 {
     if (b == 0 || a == 0) return 0;
     var result = Math.Round(a/b,2)*100 ;// 这一步 2/7 得到29.00M
     return (int)result;
 }

经单元测试如下都通过:

 int m1 = CalcPercentageInt(2, 7);
 Assert.True(m1 == 29);
 ... 3到5省略
 m1 = CalcPercentageInt(6, 7);
 Assert.True(m1 == 86);
 m1 = CalcPercentageInt(2, 9);
 ... 3到7省略
 m1 = CalcPercentageInt(8, 9);
 Assert.True(m1 == 89);
 m1 = CalcPercentageInt(2, 11);
 Assert.True(m1 == 18);
 ... 3到9省略
 m1 = CalcPercentageInt(10, 11);
 Assert.True(m1 == 91);

虽然解决了问题,最合理的方案也许还是放到前端去计算,或者直接toString("f2")都比返回int到前端好些。用chrome演示如下(多么的省事!)

>((2/7)*100).toFixed('0')
"29"
>((3/7)*100).toFixed('0')
"43"
>((6/11)*100).toFixed('0')
"55"

再来对比下如下写法:

//javascript
> var a=6,b=11;
  parseInt(a)/parseInt(b)
输出:0.5454545454545454

> var a=2,b=7;
  parseInt(a)/parseInt(b)
输出: 0.2857142857142857

//C#
var a=2;
var b=11;
var m1=a/b; 输出:0
var m2=(double)a/b;输出:0.2857142857142857
var m3=(decimal)a/b;输出:0.2857142857142857142857142857
a=2;b=7;
(float)2/7;输出:0.2857143
(double)2/7;输出:0.2857142857142857
(decimal)2/7;输出:0.2857142857142857142857142857
Math.Round((double)a/b,2) 输出:0.29
Math.Round((double)a/b,2)*100,输出:28.999999999999996 (上一步是0.29 ,*100后变成了28.999999999999996,佛系吧)
Math.Round((decimal)2/7,2),输出:0.29M
Math.Round((decimal)2/7,2)*100,输出29.00(可以对比double,为什么?)

从上面的对比可以知道int型除法小数精度问题C#和javascript采取的策略是不一样的,以及C#中double和decimal的处理方式也有所不同。
我们再来看下C++:

//gcc version 9.2.0 (MinGW.org GCC Build-2)(2019年8月5号发布)
int main()
{
  int a = 2;
  int b = 7;
  cout << "a/b的结果是:" << a / b << endl;
  //输出:0
  cout << "(double)a/b 的结果是:" << (double)a / b << endl;
  //输出:0.285714(注意这个小数位长度只有6个)
  //cout << "(double)a / b" << (decimal)a / b;//C++默认没有decimal类型?
}

针对这些乱象,我们要从一个浮点数的标准IEEE754说起。

IEEE754

IEEE二进制浮点数算术标准(IEEE 754)是20世纪80年代以来最广泛使用的浮点数运算标准,为许多CPU与浮点运算器所采用。这个标准定义了表示浮点数的格式(包括负零-0)与反常值(denormal number)),一些特殊数值(无穷(Inf)与非数值(NaN)),以及这些数值的“浮点数运算符”;它也指明了四种数值舍入规则和五种例外状况(包括例外发生的时机与处理方式)。

Ieee754-2019官方链接
下载IEEE-754-2019
该标准规定了计算机编程环境中二进制和十进制浮点算术的交换和算术格式以及方法。该标准规定了异常条件及其默认处理。可以完全以软件,完全以硬件或以软件和硬件的任何组合来实现符合该标准的浮点系统的实现。对于本标准规范部分中指定的操作,数值结果和例外情况由输入数据的值,操作顺序和目标格式唯一确定,所有这些操作均在用户的控制之下。
相关标准的其他版本(包含已被取代)有:

IEEE 754-1985-二进制浮点算法的IEEE标准
IEEE 854-1987-独立于基数的浮点算法的IEEE标准
IEEE 754-2008-浮点算法的IEEE标准
IEEE / ISO / IEC 60559-2020-ISO / IEC / IEEE国际标准-浮点运算

这里有一篇文章IEEE 754格式可以作为参考,解答一下疑惑。

问题

选择一个标准方法用二进制数来表示浮点数时,需要考虑很多事情:

  • 范围:应该能支持很大范围的正负数
  • 精度:你能区别1.7和1.8之间的区别么?1.700001和1.700002呢,你应该记住多少小数位?
  • 时间效率:您的解决方案是否使快速进行比较和算术运算变得容易?
  • 空间注意:怎么极精确表示3的平方根,除非需要兆字节来存储它
  • 一对一的关系:如果每个浮点数只能以一种方式写入,反之亦然,您的解决方案将简单得多

IEEE 754 Form的开发人员最终采用的方法使用科学符号的思想。科学记数法是表达数字的标准方法,它使数字易于阅读和比较。我们最熟悉的是以10为底的数字的科学计数法。
您只需要将数字分为两部分:值的范围1<=N<10,幂为10,例如:

3498523 被写成
− 0.0432 被写成

用二进制数也是相似的思路,需要使用2的幂。只需将您的数字分解为大小在范围内的值1 ≤ Ñ < 2,并且为2的幂。

-6.84 被写成
0.05 被写成

要创建位串(二进制串?),我们需要用下面的格式:

我们可以从中获得三个关键信息:

  • 第一部分:sign/符号,如果符号位为0,则代表正数,=1; 如果符号位为1,代表负数,$(-1)^0=-1; 否则为0;
  • 第二部分:fraction/mantissa尾数我们总是把括号里的数字算作(1+某个分数)。因为我们知道1在那里,唯一重要的是分数,我们将把它写成二进制字符串。
    如果我们需要将二进制值转换回以10为基数的值,我们只需将每个数字乘以其位值,如以下示例所示:

=0.5
=0.25
=0.625

  • 第三部分指数/阶 上一步获得的2的幂只是一个整数。注意,该整数可以是正数或负数,分别取决于原始值是大还是小。我们需要存储该指数-但是,使用两者的补码(带符号的值的常用表示形式)会使这些值的比较更加困难。这样,我们将一个称为bias(偏差)的常数添加到指数中。通过在存储指数之前对其进行偏置,我们将其置于更适合比较的无符号范围内。

对于单精度浮点,将-127到+ 127范围内的指数加上127以得到1到254范围内的值(0和255具有特殊含义),从而对指数产生偏倚。

对于双精度,将1022到+1023范围内的指数加1023来获得1到2046范围内的值(0和2047具有特殊含义),从而对其产生偏差。

偏差和2的幂的和是实际上进入IEEE 754字符串的指数。请记住,指数=幂+偏差。(或者,幂=指数偏差)。该指数本身必须最终以二进制形式表示-但考虑到加上偏差后我们有一个正整数,则现在可以按常规方式完成此操作。

计算这些二进制值后,可以将它们放入32位或64位字段中。这些数字的排列方式如下:
image.png

通过以这种方式排列字段,以使符号位位于最高有效位位置,偏斜指数位于中间,然后尾数位于最低有效位-结果值实际上将正确排序以进行比较,无论是否它被解释为浮点数或整数值。这样可以使用定点硬件对浮点数进行高速比较。

有一些特殊情况:


  • 符号位= 0; 有偏指数(阶码)=全部0位; 分数=全部0 位;-0和+0是不同的值,尽管它们相等

  • 正负无穷大(不知是否理解对?)
    符号位=0 ,有偏指数(阶码)=全部1个位, 分数=全部0 位,表示正无穷大;
    符号位=1,有偏指数(阶码)=全部1个位,分数=全部0 位,为负无穷大;

  • NaN(非数字)
    值NAN用于表示错误值。当指数字段为全零且带零符号位或尾数不是1后跟零的尾数时,将表示此值。这是一个特殊值,可用于表示尚不包含值的变量。


    image.png

    image.png

    image.png

    image.png

Float,Double ,Decimal 有何区别?

Decimal,Double和Float变量类型在存储值方面有所不同。精度是主要区别,其中float是单精度(32位)浮点数据类型,double是双精度(64位)浮点数据类型,而Decimals(十进制)是128位浮点数据类型。
float/single -32位(7位数字)
double-64位(15-16位)
decimal-128位(28-29位有效数字)
主要区别在于Floats和Doubles是二进制浮点类型,而Decimal将值存储为浮点小数点类型。因此,Decimal位数具有更高的精度,通常用于要求高度准确性的货币(金融)应用程序中。但是在性能方面,Decimal比双精度和浮点型慢。

Decimal可以100%准确地表示十进制格式精度范围内的任何数字,而Float和Double不能准确表示所有数字,即使数字在其各自格式精度范围内。

将IEEE 754浮点转换为二进制
示例:转换为浮点型
Floating Point Representation
ieee-standard-754-floating-point-numbers
Decimal vs Double vs Float

你可能感兴趣的:(从“四舍五入”谈起)