精度和分辨率的区别是什么?
2018-07-05 · 知道合伙人数码行家
知道合伙人数码行家
向TA提问 私信TA
分辨率,只是可以直接读数的数值,而精度,影响的是测量值和实际零件尺寸(真值)偏差。
量具的分辨率,其实就是指直接可以读数刻度值,也被叫做分度值。在尺身上,一般都会有标注,这款卡尺的分辨率就是0.02mm。
而尺的实际精度,就需要通过查看这款尺的说明书来确定了。
通过这款千分尺来说明一下。
尺身标注,分度值为0.001mm,也就是分辨率为0.001mm,可以通过刻度,直接读数0.001mm的数值。比如,直接读数为8.888mm。
通过性能参数表格,可以看见,这款千分尺,精度是±0.002mm。
零件真值可能范围就是
最小尺寸:8.888-0.002=8.886mm
最大尺寸: 8.888+0.002=8.890mm
由于尺本身精度的关系,这个零件尺寸是不确定的,按照这个精度,只能确定零件真值在8.886--8.890mm之间。
购买量具,需要参考零件本身精度要求,否则就是浪费或者测量结果不确定。只要求精度0.1mm的,那么,购买精度0.01或者0.02mm的量具已经足够了。当然,用0.002mm精度的量具测量会更加接近真值。
但是,精度越好,当然制作难度越大,价格也会越贵。
里面所有尺寸,均标了单位,其实在机械行业,默认不需要标注的,都是说的mm。
二者区别如下:
分辩率是量化刻度的细度大小,分辩率做到十万分之一并不是很难。
2.精度是指接近真实值的程度, 即绝对误差或相对误差的大小.精度做到百分之一便及其之难了。
总的来说,分辩率高是精度高的必要条件,分辩率高不等于精度高。
精度是表示观测值与真值的接近程度。每一种物理量要用数值表示时,必须先要制定一种标准,并选定一种单位。
精度可分为三种:
准确度表示测量结果与真值之间的一致程度,它反映测量结果中系统误差与随机误差的综合。其定量特征可用测量的不确定度(或极限误差)来表示。
精密度表示在一定条件下进行多次测量时,所得测量结果彼此之间符合的程度,它反映测量结果中随机误差的影响程度。
正确度表示测量结果中系统误差大小的程度,反映了规定条件下,测量结果中所有系统误差的综合。
分辨率可以从显示分辨率与图像分辨率两个方向来分类。显示分辨率(屏幕分辨率)是屏幕图像的精密度,是指显示器所能显示的像素有多少。由于屏幕上的点、线和面都是由像素组成的,显示器可显示的像素越多,画面就越精细。
图像分辨率则是单位英寸中所包含的像素点数,其定义更趋近于分辨率本身的定义。
通常情况下,图像的分辨率越高,所包含的像素就越多,图像就越清晰,印刷的质量也就越好。同时,它也会增加文件占用的存储空间。
2018-12-12 · 学会计就到牛账网/所学即所用
搞编码器制做和销售的,经常跟“精度”与“分辨率”打交道,这个问题不是三言两语能搞得清楚的,在这里只作抛砖引玉了。
简单点说,“精度”是用来描述物理量的准确程度的,而“分辨率”是用来描述刻度划分的。从定义上看,这两个量应该是风马牛不相及的。(是不是有朋友感到愕然^_^)。很多卖传感器的JS就是利用这一点来糊弄人的了。简单做个比喻:有这么一把常见的塑料尺(中学生用的那种),它的量程是10厘米,上面有100个刻度,最小能读出1毫米的有效值。那么我们就说这把尺子的分辨率是1毫米,或者量程的1%;而它的实际精度就不得而知了(算是0.1毫米吧)。当我们用火来烤一下它,并且把它拉长一段,然后再考察一下它。我们不难发现,它还有有100个刻度,它的“分辨率”还是1毫米,跟原来一样!然而,您还会认为它的精度还是原来的0.1毫米么?(这个例子是引用网上的,个人觉得比喻的很形象!)
所以在这里利用这个例子帮大家把这两个概念理一下,以后大家就可以理直气壮的说精度和分辨率了,而不是将精度理解为分辨率。呵呵,希望对大家有用!^_^
1, 精度是接近真实值的程度, 即绝对误差或相对误差的大小.精度做到0.01%极其难
2, 分辩率是量化刻度的细度大小,分辩率做到0.00001%不很难(如24位A/D,0.0000056%)
3, 概念理解:
例1:一把1米的软尺,有1000个刻度,分辩率1毫米(分辩率0.1%),用标准尺量下绝对误差+5毫米,精度+0.5%。如果能把尺拉长20毫米,此时绝对误差+25毫米,精度降为2.5%, 可是尺还是1000个刻度,其分辨率还是1毫米(0.1%).
例2:两杆称来称真重1克的物体, 一杆的结果为1.03克, 另一杆的结果为0.8333333333333333333333333克, 哪个准呢
4, 关系
分辩率高是精度高的必要条件,不是充分条件;分辩率高不等于精度高. 认定精度才是王道.
一般来说,增量式的编码器的分辨精度是以单圈脉冲数来标记的。
线性度:输出脉冲在单圈内的分布均匀度。