NLP学习(8)之Entropy

Mar 26, 2019


Information Entropy

Information Entropy


信息熵定义为信息量的期望,信息量为

Cross-entropy and KL-divergence

cross-entropy and kl-divergence

在信息论中,基于相同事件测度的两个概率分布pq的交叉熵是指,当基于一个“非自然”(相对于“真实”分布p而言)的概率分布q进行编码时,在事件集合中唯一标识一个事件所需要的平均比特数(bit)。

基于概率分布p和q的交叉熵定义为:

其中H(p)是p的熵,是从p到q的KL散度(也被称为p相对于q的相对熵)。

对于离散分布p和q,这意味着:

对于连续分布也是类似的。我们假设p和q在测度r上是绝对连续的(通常r是Lebesgue measure on a Borel -algebra)。设P和Q分别为和q在测度r上概率密度函数。则


上一篇博客:NLP学习(7)之LSTM与RNN
下一篇博客:NLP学习(9)之评价语言模型的指标