分辨率和精度区别

对于传感器的分辨率与精度的理解,可以拿千分尺为例,分辨率代表千分尺最多可以读到小数点后几位,但精度还与尺子的加工精度,测量方法有关系。

编码器的分辨率,是指编码器可读取并输出的最小角度变化,对应的参数有:每转刻线数(line)、每转脉冲数(PPR)、最小步距(Step)、位(Bit)等。编码器的精度,是指编码器输出的信号数据对测量的真实角度的准确度,对应的参数是角分(′)、角秒(″)。

光看分辨率不行的,如果分辨出的位数似乎很多但都不准,那这样的分辨率意义不大。前些年有人用两片8位AD拼成16位AD,表面上分辨率提高了一倍,但精度并未增加,如果这么简单就达到精度的提高,那AD公司光用AD0808就行了也就不必花大力气研发16位以至更高位AD了。

分辨率就是你能看出A和B身高差多少,精度就是A和B身高分别是多少。比如你用数字游标卡尺量一个10厘米的模型,显示结果为  50.1276厘米,可以看出分辨率挺高,精度不咋地。分辨率简单的说就是小数点后面的位数,比如4.201V的分辨率比4.20V高 但是分辨率高不代表精度高,如果这个电压本来是4.203V,高分辨率测出来是4.223V,低分辨率测出来是4.20V,那么低分辨率的精度高。

你分辨率小数点后位数再多,但受其它因素影响,但精度却不能提高。

有这么一把常见的塑料尺(中学生用的那种),它的量程是10厘米,上面有100个刻度,最小能读出1毫米的有效值。

那么我们就说这把尺子的分辨率是1毫米,或者量程的1%;

而它的实际精度就不得而知了(算是0.1毫米吧)。

你可能感兴趣的:(【机器视觉】)