信息熵完美编码
交叉熵不完美编码
相对熵是两者的差值,交叉熵减去信息熵。差值即差异,也即KL散度

一、熵:信息熵

熵(Entropy)是一个热力学概念,在信息论中,熵用来衡量随机变量的不确定性。一个系统越有序,熵越小;越混乱,熵越大。因此熵用来衡量一个系统的有序程度。在机器学习的的过程中,变量的不确定越大,熵越大。设是一个取有限个值的离散随机变量,其概率分布为:
WX20220517-161745@2x.png

二、交叉熵

1.定义:用来衡量计算出的概率分布和真实概率分布之间的差异
2.公式:
cross.png

三、相对熵:KL散度

1.定义:用来衡量两个概率分布之间的差异
2.公式:kl.png

四、条件熵

WX20220517-164310@2x.png

标签: none

添加新评论