Information Entropy
信息熵定义为信息量的期望,信息量为
Cross-entropy and KL-divergence
cross-entropy and kl-divergence
在信息论中,基于相同事件测度的两个概率分布p和q的交叉熵是指,当基于一个“非自然”(相对于“真实”分布p而言)的概率分布q进行编码时,在事件集合中唯一标识一个事件所需要的平均比特数(bit)。
基于概率分布p和q的交叉熵定义为:
其中H(p)是p的熵,是从p到q的KL散度(也被称为p相对于q的相对熵)。
对于离散分布p和q,这意味着:
对于连续分布也是类似的。我们假设p和q在测度r上是绝对连续的(通常r是Lebesgue measure on a Borel -algebra)。设P和Q分别为和q在测度r上概率密度函数。则