| 此条目需要 精通或熟悉相关主题的编者参与及协助编辑。 请邀请适合的人士改善本条目。更多的细节与详情请参见讨论页。 |
KL散度(Kullback-Leibler divergence,简称KLD)[1],在讯息系统中称为相对熵(relative entropy),在连续时间序列中称为随机性(randomness),在统计模型推断中称为讯息增益(information gain)。也称讯息散度(information divergence)。
KL散度是两个机率分布P和Q差别的非对称性的度量。 KL散度是用来度量使用基于Q的分布来编码服从P的分布的样本所需的额外的平均比特数。典型情况下,P表示数据的真实分布,Q表示数据的理论分布、估计的模型分布、或P的近似分布。[1]
对于离散随机变量,其机率分布P 和 Q的KL散度可按下式定义为
![{\displaystyle D_{\mathrm {KL} }(P\|Q)=-\sum _{i}P(i)\ln {\frac {Q(i)}{P(i)}}.\!}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b115c150e9bbdbffb51b9f77d4d4e279b846e204)
等价于
![{\displaystyle D_{\mathrm {KL} }(P\|Q)=\sum _{i}P(i)\ln {\frac {P(i)}{Q(i)}}.\!}](https://wikimedia.org/api/rest_v1/media/math/render/svg/82f51e162f33f3bd351a969ab3dceb180b9612e3)
即按机率P求得的P和Q的对数商的平均值。KL散度仅当机率P和Q各自总和均为1,且对于任何i皆满足
及
时,才有定义。式中出现
的情况,其值按0处理。
对于连续随机变量,其机率分布P和Q的KL散度可按积分方式定义为 [2]
![{\displaystyle D_{\mathrm {KL} }(P\|Q)=\int _{-\infty }^{\infty }p(x)\ln {\frac {p(x)}{q(x)}}\,{\rm {d}}x,\!}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7a2fb9ed552577cc272dd9ee9fd07c569969fa0e)
其中p和q分别表示分布P和Q的密度。
更一般的,若P和Q为集合X的机率测度,且P关于Q绝对连续,则从P到Q的KL散度定义为
![{\displaystyle D_{\mathrm {KL} }(P\|Q)=\int _{X}\ln {\frac {{\rm {d}}P}{{\rm {d}}Q}}\,{\rm {d}}P,\!}](https://wikimedia.org/api/rest_v1/media/math/render/svg/120f4ee30195277baeb6cdd45158910f92aea40c)
其中,假定右侧的表达形式存在,则
为Q关于P的R–N导数。
相应的,若P关于Q绝对连续,则
![{\displaystyle D_{\mathrm {KL} }(P\|Q)=\int _{X}\ln {\frac {{\rm {d}}P}{{\rm {d}}Q}}\,{\rm {d}}P=\int _{X}{\frac {{\rm {d}}P}{{\rm {d}}Q}}\ln {\frac {{\rm {d}}P}{{\rm {d}}Q}}\,{\rm {d}}Q,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/05f773317c94b7181b14b3ad6f57990ff43dec01)
即为P关于Q的相对熵。
相对熵的值为非负数:
![{\displaystyle D_{\mathrm {KL} }(P\|Q)\geq 0,\,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1e94f152f6de9d407bbc5d0f0fb2eebc4ccd3720)
由吉布斯不等式可知,当且仅当
时
为零。
尽管从直觉上KL散度是个度量或距离函数, 但是它实际上并不是一个真正的度量或距离。因为KL散度不具有对称性:从分布P到Q的距离通常并不等于从Q到P的距离。
![{\displaystyle D_{\mathrm {KL} }(P\|Q)\neq D_{\mathrm {KL} }(Q\|P)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/eb454b33313fdfb5e8f859580e3c0cc7cd5cf66b)
自信息和KL散度
![{\displaystyle I(m)=D_{\mathrm {KL} }(\delta _{im}\|\{p_{i}\}),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b5259d3907dac00533fee6c90ccf30425dbaceeb)
互信息和KL散度
![{\displaystyle {\begin{aligned}I(X;Y)&=D_{\mathrm {KL} }(P(X,Y)\|P(X)P(Y))\\&=\mathbb {E} _{X}\{D_{\mathrm {KL} }(P(Y|X)\|P(Y))\}\\&=\mathbb {E} _{Y}\{D_{\mathrm {KL} }(P(X|Y)\|P(X))\}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4f0dd25539b4734c56b6a1927ad80243023d026a)
信息熵和KL散度
![{\displaystyle {\begin{aligned}H(X)&=\mathrm {(i)} \,\mathbb {E} _{x}\{I(x)\}\\&=\mathrm {(ii)} \log N-D_{\mathrm {KL} }(P(X)\|P_{U}(X))\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e166092dd97aea2f0c5f669b441cb7fa6df32420)
条件熵和KL散度
![{\displaystyle {\begin{aligned}H(X|Y)&=\log N-D_{\mathrm {KL} }(P(X,Y)\|P_{U}(X)P(Y))\\&=\mathrm {(i)} \,\,\log N-D_{\mathrm {KL} }(P(X,Y)\|P(X)P(Y))-D_{\mathrm {KL} }(P(X)\|P_{U}(X))\\&=H(X)-I(X;Y)\\&=\mathrm {(ii)} \,\log N-\mathbb {E} _{Y}\{D_{\mathrm {KL} }(P(X|Y)\|P_{U}(X))\}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e148ead5812df5ef8b5482f300339f9f75e334e2)
交叉熵和KL散度
![{\displaystyle \mathrm {H} (p,q)=\mathrm {E} _{p}[-\log q]=\mathrm {H} (p)+D_{\mathrm {KL} }(p\|q).\!}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2d8f2e114908f6a358fa616fa739cf57f37eaf60)