熵、相对熵与互信息

熵、相对熵与互信息一、熵熵的定义:其对数log的底为2,若使用底为b的对数,则记为。当对数底为时,熵的单位为奈特。用表示数学期望,如果,则随机变量的期望值为,当,关于的分布自指数学期望。而熵为随机变量的期望值,其是的概率密度函数,则可写为,引理:证明:二、联合熵与条件熵:对于服从联合分布为的一对离散随机变量,联合熵的定义:若,条件熵的定义:定理链…

大家好,欢迎来到IT知识分享网。

一、熵

熵的定义

熵、相对熵与互信息

其对数log的底为2,若使用底为b的对数,则记为熵、相对熵与互信息。当对数底为熵、相对熵与互信息时,熵的单位为奈特。

熵、相对熵与互信息表示数学期望,如果熵、相对熵与互信息,则随机变量熵、相对熵与互信息的期望值为,

熵、相对熵与互信息

熵、相对熵与互信息熵、相对熵与互信息关于熵、相对熵与互信息的分布自指数学期望。而熵为随机变量熵、相对熵与互信息的期望值,其熵、相对熵与互信息熵、相对熵与互信息的概率密度函数,则可写为,

熵、相对熵与互信息

引理熵、相对熵与互信息

证明熵、相对熵与互信息

 

二、联合熵与条件熵:

对于服从联合分布为熵、相对熵与互信息的一对离散随机变量熵、相对熵与互信息

联合熵的定义

熵、相对熵与互信息

熵、相对熵与互信息条件熵的定义

熵、相对熵与互信息

定理链式法则

熵、相对熵与互信息

证明

熵、相对熵与互信息

等价记为

熵、相对熵与互信息

推论

熵、相对熵与互信息

熵、相对熵与互信息,但熵、相对熵与互信息

 

三、相对熵与互信息

两个概率密度函数为熵、相对熵与互信息熵、相对熵与互信息之间的相对熵或Kullback-Leibler距离定义为,

熵、相对熵与互信息

定义 考虑两个随机变量熵、相对熵与互信息熵、相对熵与互信息,它们的联合概率密度函数为熵、相对熵与互信息,其边际概率密度函数分别是熵、相对熵与互信息熵、相对熵与互信息

互信息熵、相对熵与互信息为联合分布熵、相对熵与互信息和乘积分布熵、相对熵与互信息熵、相对熵与互信息之间的相对熵,

熵、相对熵与互信息

 

四、熵和互信息的关系

还可以将互信息写为,

熵、相对熵与互信息

由此可以看出,互信息熵、相对熵与互信息是在给定熵、相对熵与互信息知识条件下熵、相对熵与互信息的不确定度的缩减量。则,

熵、相对熵与互信息,联系到前面的熵、相对熵与互信息,可得,

熵、相对熵与互信息

最后得出,熵、相对熵与互信息

因此,随机变量与自身的互信息为该随机变量的熵。有时,熵称为自信息就是这个原因。

熵和互信息的关系如下,

熵、相对熵与互信息

 

五、熵、相对熵与互信息的链式法则

一组随机变量的熵等于条件熵之和。

定理 设随机变量熵、相对熵与互信息服从熵、相对熵与互信息,则

熵、相对熵与互信息

证明一

熵、相对熵与互信息

证明二,由

熵、相对熵与互信息

可得:

熵、相对熵与互信息

给定熵、相对熵与互信息时由于熵、相对熵与互信息的知识而引起关于熵、相对熵与互信息的不确定度的缩减量,即条件互信息的定义

熵、相对熵与互信息

定理 互信息的链式法则

熵、相对熵与互信息

证明

熵、相对熵与互信息

条件相对熵的定义

熵、相对熵与互信息

定理 相对熵的链式法则

熵、相对熵与互信息

证明

熵、相对熵与互信息

原文链接:熵、相对熵与互信息

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/23757.html

(0)

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信