2020-05-29
阅读量:
1050
如何用通俗的话解释信息熵(entropy)?
以下为用通俗的话来解释信息熵.
信息熵(entropy)指的是你损失掉的信息,信息熵越高,说明损失的信息越多,信息熵越小,损失的信息越少.例如,你想知道我喜欢吃什么美食,我说我喜欢吃中餐,实际上你并不知道我到底喜欢吃什么,只知道我不喜欢西餐.但我具体喜欢什么你不知道,因为中餐包含的美食太多了,此时的信息熵很高.如果我告诉你我喜欢吃中餐里的面食,尽管你还是不知道我到底喜欢吃什么,但是范围却缩小了很多,此时损失的信息会相对较少,降低了信息熵.






评论(0)


暂无数据
推荐帖子
0条评论
0条评论
0条评论