条件熵:在已知另一个随机变量(或事件)信息的前提下,一个随机变量仍然具有的不确定性大小。常写作 **H(X|Y)**。它是信息论与概率论中衡量“知道 Y 之后,X 还剩多少不确定性”的量。(该术语也常用于机器学习中的特征选择、互信息分析等。)
/kənˈdɪʃənəl ˈɛntrəpi/
If we know the weather, the conditional entropy of “carry an umbrella” becomes smaller.
如果我们知道天气,“是否带伞”的条件熵就会更小。
In feature selection, we compare conditional entropy across variables to estimate how much uncertainty remains in the target after observing each feature.
在特征选择中,我们会比较不同变量的条件熵,来估计观察某个特征后目标变量还剩下多少不确定性。
Conditional 源自拉丁语 condicio(条件、约定),在英语里表示“在某条件之下的”。
Entropy(熵)由德语 Entropie 进入英语,最早在热力学中指系统的无序程度;信息论借用并重新定义为“信息的不确定性”。合在一起,conditional entropy 就是“在给定条件下的不确定性”。