计算机导论课后总结week2

计算机导论课后总结week2

  • 信息
    • 信息的定义
    • 信息的分类
    • 信息量
    • 信息熵

信息

信息的定义

1.信息,指音讯、消息、通讯系统传输和处理的对象,泛指人类社会传播的一切内容。人通过获得、识别自然界和社会的不同信息来区别不同事物,得以认识和改造世界。在一切通讯和控制系统中,信息是一种普遍联系的形式。
2.“信息”一词在英文、法文、德文、西班牙文中均是
“information”
,日文中为“情报”,我国台湾称之为“资讯”,我国古代用的是“消息”。作为科学术语最早出现在哈特莱(R.V.Hartley)于1928年撰写的《信息传输》一文中。具有代表意义的表述如下:
信息奠基人
香农(Shannon)认为“信息是用来消除随机不确定性的东西”
,这一定义被人们看作是经典性定义并加以引用。
控制论创始人维纳(Norbert Wiener)认为“信息是人们在适应外部世界,并使这种适应反作用于外部世界的过程中,同外部世界进行互相交换的内容和名称”,它也被作为经典性定义加以引用。
我国信息论专家钟信义教授认为“信息是事物运行的状态与方式”。 经济管理学家认为**“信息是提供决策的有效数据”**。

信息的分类

(1)按社会性分类:社会信息(人类信息)和自然信息(非人类信息)。
(2)按空间状态分类:宏观信息(如国家的),中观信息(如行业的),微观信息(如企业的)。
(3)按信源类型分类:内源性信息和外源性信息。
(4)按价值分类:有用信息、无害信息和有害信息。
(5)按时间性分类:历史信息、现时信息、预测信息。
(6)按载体分类:文字信息、声像信息、实物信息。

信息量

信息量是指信息多少的量度。1928年R.V.L.哈特莱首先提出信息定量化的初步设想,他将消息数的对数定义为信息量。若信源有m种消息,且每个消息是以相等可能产生的,则该信源的信息量可表示为I=logm。但对信息量作深入而系统研究,还是从1948年C.E.香农的奠基性工作开始的。在信息论中,认为信源输出的消息是随机的。即在未收到消息之前,是不能肯定信源到底发送什么样的消息。而通信的目的也就是要使接收者在接收到消息后,尽可能多的解除接收者对信源所存在的疑义(不定度),因此这个被解除的不定度实际上就是在通信中所要传送的信息量

信息熵

通常,一个信源发送出什么符号是不确定的,衡量它可以根据其出现的概率来度量。概率,出现机会,不确定性反之不确定性就大
不确定性函数f是概率P的减函数;两个独立符号所产生的不确定性应等于各自不确定性之和,即f(P1,P2)=f(P1)+f(P2),这称为可加性。同时满足这两个条件的函数f是对数函数,即:

在信源中,考虑的不是某一单个符号发生的不确定性,而是要考虑这个信源所有可能发生情况的平均不确定性。若信源符号有n种取值:U1…Ui…Un,对应概率为:P1…Pi…Pn,且各种符号的出现彼此独立。这时,信源的平均不确定性应当为单个符号不确定性-logPi的统计平均值(E),可称为信息熵,即:

式中对数一般取2为底,单位为比特。但是,也可以取其它对数底,采用其它相应的单位,它们间可用换底公式换算。
最简单的单符号信源仅取0和1两个元素,即二元信源,其概率为P和Q=1-P,该信源的熵即为如图1所示。
由图可见,离散信源的信息熵具有:
非负性:即收到一个信源符号所获得的信息量应为正值,H(U)≥0
对称性:即对称于P=0.5
确定性:H(1,0)=0,即P=0或P=1已是确定状态,所得信息量为零
极值性:因H(U)是P的上凸函数,且一阶导数在P=0.5时等于0,所以当P=0.5时,H(U)最大。
对连续信源,香农给出了形式上类似于离散信源的连续熵,

图1 二元信源的熵

虽然连续熵Hc(U)仍具有可加性,但不具有信息的非负性,已不同于离散信源。连续熵Hc(U)不代表连续信源的信息量。连续信源取值无限,信息量是无限大,而Hc(U)是一个有限的相对值,又称相对熵。但是,在取两熵的差值为互信息时,它仍具有非负性。这与力学中势能的定义相仿。

#以上内容来源自网络。

你可能感兴趣的:(导论作业)