首页 . 理学 . 统计学 . 数理统计 . 参数空间

库尔贝克-莱布勒信息量

/Kullback-Leibler information function/
条目作者崔恒建

崔恒建

最后更新 2024-12-04
浏览 169
最后更新 2024-12-04
浏览 169
0 意见反馈 条目引用

同一概率空间上的两个密度函数之间的熵距离。又称K-L信息量。

英文名称
Kullback-Leibler information function
又称
K-L信息量
所属学科
统计学

20世纪中叶,统计学家S.库尔贝克[注]R.A.莱布勒[注]提出一个信息量,后人称之为K-L信息量,用以判定两个概率分布的接近程度。对于偶尔的带有随机性质的现象,通常可以认为是服从某一概率分布的随机变量的一些实现值。如果已知(或假设)真正的概率分布,从而估计模型的好坏,就需要一个度量,这就是库尔贝克-莱布勒(Kullback-Leibler)信息量,即K-L信息量。它包括离散型分布的K-L信息量和连续型分布的K-L信息量。

设实际(基准)的概率分布列为,式中为事件发生的概率。故有。设选择(评价)的模型为,事件发生,则取值为的随机变量的期望称为模型关于实际分布的K-L信息量。

K-L信息量有下列性质:设满足的概率分布。此时,上述定义的满足

是实际(基准)模型的概率密度函数,是选择(评价)模型的概率密度函数,关于实际模型概率分布的K-L统计量定义为:


类似地有以下性质

  • KULLBACK S,LEIBLER R A.On Information and Sufficiency.The Annals Of Mathematical Statistics,1951,22(1):79-86.

相关条目

阅读历史

    意见反馈

    提 交

    感谢您的反馈

    我们会尽快处理您的反馈!
    您可以进入个人中心的反馈栏目查看反馈详情。
    谢谢!