永发信息网

信息论基础里面: 概率越大=可能性越大=信息量越多=不确定性越小=熵H(X)越小=自信息I(x)

答案:2  悬赏:20  手机版
解决时间 2021-11-19 20:28
  • 提问者网友:两耳就是菩提
  • 2021-11-18 20:19
信息论基础里面: 概率越大=可能性越大=信息量越多=不确定性越小=熵H(X)越小=自信息I(x)
最佳答案
  • 五星知识达人网友:佘樂
  • 2021-11-18 21:23
信息是个很抽象的概念。我们常常说信息很多,或者信息较少,但却很难说清楚信息到底有多少。比如一本五十万字的中文书到底有多少信息量。直到 1948 年,香农提出了“信息熵”(shāng) 的概念,才解决了对信息的量化度量问题。一条信息的信息量大小...
全部回答
  • 1楼网友:鸠书
  • 2021-11-18 22:40
建立了信息量的统计公式,奠定了信息论的理论基矗...把热力学熵与信息熵直接联系起来,使热力学中争论了...来度量为定性被消除的量的大小:H(x)为信息熵,是...
我要举报
如以上回答内容为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
点此我要举报以上问答信息
大家都在看
推荐资讯