20世纪中叶,统计学家S.库尔贝克[注]和R.A.莱布勒[注]提出一个信息量,后人称之为K-L信息量,用以判定两个概率分布的接近程度。对于偶尔的带有随机性质的现象,通常可以认为是服从某一概率分布的随机变量的一些实现值。如果已知(或假设)真正的概率分布,从而估计模型的好坏,就需要一个度量,这就是库尔贝克-莱布勒(Kullback-Leibler)信息量,即K-L信息量。它包括离散型分布的K-L信息量和连续型分布的K-L信息量。
首页
[{"ID":42422,"Name":"理学"},{"ID":59818,"Name":"统计学"},{"ID":59827,"Name":"数理统计"},{"ID":59834,"Name":"参数空间"}]
. 理学 . 统计学 . 数理统计 . 参数空间库尔贝克-莱布勒信息量
/Kullback-Leibler information function/
最后更新 2024-12-04
浏览 169次
同一概率空间上的两个密度函数之间的熵距离。又称K-L信息量。
- 英文名称
- Kullback-Leibler information function
- 又称
- K-L信息量
- 所属学科
- 统计学
设实际(基准)的概率分布列为,式中
为事件
发生的概率。故有
,
。设选择(评价)的模型为
,事件
发生,则取值为
的随机变量
的期望
称为模型
关于实际分布
的K-L信息量。
K-L信息量有下列性质:设满足
和
的概率分布。此时,上述定义的
满足
。
设是实际(基准)模型的概率密度函数,
是选择(评价)模型的概率密度函数,关于实际模型概率分布的K-L统计量定义为:
类似地有以下性质。
扩展阅读
- KULLBACK S,LEIBLER R A.On Information and Sufficiency.The Annals Of Mathematical Statistics,1951,22(1):79-86.