第1章 绪论
信息论是通信的数学基础,它是随着通信技术的发展而形成和发展起来的一门新兴的橫断学科。
信息论创立的标志是1948年香农发表的论文“A Mathematical Therory of Communication”。为了解决在噪声信道中有效传输信息的问题,香农在这篇文章中创造性地采用概率论的方法来研究通信中的问题,并且对信息给予了科学的定量描述,**次提出了信息熵的概念。
在日常生活中,人们往往对消息和信息不加区别,认为消息就是信息。例如,当人们收到一封电报,或者听了天气预报,人们就说得到了信息。
人们收到消息后,如果消息告诉了我们很多原来不知道的新内容,我们会感到获得了很多的信息,而如果消息是我们基本已经知道的内容,我们得到的信息就不多,所以信息应该是可以度量的。那么怎样度量信息呢?人们需要有一个可以用数学模型来表示的信息概念。
1928年,哈特莱(Hartley)首先提出了对数度量信息的概念,即一个消息所含有的信息量用它的所有可能的取值的个数的对数来表示。比如,抛掷一枚硬币可能有两种结果:正面和反面,所以当我们得知抛掷结果后获得的信息量是log22—1bit。而一个十进制数字可以表示O~9中的任意一个符号,所以一个十进制数字含有log210=3.322 bit的信息量。这里对数取以2为底,信息量的单位为bit。
哈特莱的工作给了香农很大的启示,他进一步注意到消息的信息量不仅与它的可能值的个数有关,还与消息本身的不确定性有关。例如,抛掷一枚偏畸硬币,如果正面向上的可能性是90%,那么当我们得知抛掷结果是反面时得到的信息量会比得知抛掷结果是正面时得到的信息量大。
一个消息之所以会含有信息,正是因为它具有不确定性,一个不具有不确定性的消息是不会含有任何信息的,而通信的目的就是为了消除或部分消除这种不确定性。比如,在得知硬币的抛掷结果前,我们对于结果会出现正面还是反面是不确定的,通过通信,我们得知了硬币的抛��结果,消除了不确定性,从而获得了信息,因此,信息是对事物运动状态或存在方式的不确定性的描述。这就是香农信息的定义。
……