数字万用表的精度
1个回答
展开全部
精度就是指在特定的使用环境下,出现的最大允许误差。换句话说,精度就是用来表明
数字多用表的测量值与被测信号的实际值的接近程度。
对于数字多用表来说,精度通常使用读数的百分数表示。例如,1%的读数精度的含义是:数字多用表的显示是100.0V时,实际的电压可能会在99.0V~101.0V之间。
在详细说明书中可能会有特定数值加到基本精度中。它的含义就是,对显示的最右端进行变换要加的字数。在前面的例子中,精度可能会标为±(1%+2)。因此,如果GMM的读数是100.0V,实际的电压会在98.8V~101.2V之间。
模拟表的精度是按全量程的误差来计算的,而不是按显示的读数来计算。模拟表的典型精度是全量程的±2%或±3%。数字多用表的典型基本精度在读数的±(0.7%+1)和±(0.1%+1)之间,甚至更高。
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询