1个回答
展开全部
“熵”( Entropy )来表示一条信息中真正需要编码的信息量,即数据压缩的理和绝论极限。对于任何一种无损数据压缩,最终的数据量一定大于信息熵,数据量越接近于熵值,说明其压缩效果越好,假定一种无损数据压缩之后数据量小于信息熵,只能说明一个问题,说明其数据压缩肯定出错了.
信息熵是指一组数据唤丛姿所携带的信息量,它定义为:
H=-∑i=0N-1Pilog2Pi
N为数据类数或码元个数, Pi为码元yi发生的概率.
为使信息编码单位数据量d接近于或等于H,应设郑姿:
d=∑i=0N-1Pib(yi)
其中b(yi)是分配给码元yi的比特数, 理论上应取b(yi)=-log2Pi. 实际一般取b(y0)=b(y1)=…=b(yK-1).
举个例子 : 字符串:aabbaccbaa
字符串长度为 10,字符 a、b、c 分别出现了 5、3、2 次,则 a、b、c 在信息中出现的概率分别为 0.5、0.3、0.2,他们的熵分别为:
Ea = -log2(0.5) = 1
Eb = -log2(0.3) = 1.737
Ec = -log2(0.2) = 2.322
该信息源的熵为:
E = Ea * 0.5 + Eb * 0.3 + Ec * 0.2 = 1.4855 位
信息熵是指一组数据唤丛姿所携带的信息量,它定义为:
H=-∑i=0N-1Pilog2Pi
N为数据类数或码元个数, Pi为码元yi发生的概率.
为使信息编码单位数据量d接近于或等于H,应设郑姿:
d=∑i=0N-1Pib(yi)
其中b(yi)是分配给码元yi的比特数, 理论上应取b(yi)=-log2Pi. 实际一般取b(y0)=b(y1)=…=b(yK-1).
举个例子 : 字符串:aabbaccbaa
字符串长度为 10,字符 a、b、c 分别出现了 5、3、2 次,则 a、b、c 在信息中出现的概率分别为 0.5、0.3、0.2,他们的熵分别为:
Ea = -log2(0.5) = 1
Eb = -log2(0.3) = 1.737
Ec = -log2(0.2) = 2.322
该信息源的熵为:
E = Ea * 0.5 + Eb * 0.3 + Ec * 0.2 = 1.4855 位
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
上海巴鲁图工程机械科技有限公司_
2022-05-15 广告
2022-05-15 广告
增量编码器一般输出信号是两路正交脉冲信号和一路参考信号,之所以叫增量是因为它的位置信号是通过对脉冲计数累加得到,依靠计数设备的内部记忆来记住位置,并且同每圈输出的参考信号来清除累计误差. 缺点就是断电后,需要重新寻找初始位置. 例如打印机扫...
点击进入详情页
本回答由上海巴鲁图工程机械科技有限公司_提供
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询