比特率与波特率的区别

本文使用较多篇幅,想要彻底弄明白这个问题,故引出其中相关问题进行依次解析,看完肯定可以弄明白这两者的关系!!!

一,信息量与信息熵

当一个事物(宏观态)有多个可能的情况时(微观态),这件事情(宏观态)对于某人(观察者)而言具体是那种情况(微观态)的不确定性称为熵(entropy),而能消除该人对于这件事情(宏观态)不确定性的事物叫做信息。获取信息=消除熵。
这里引入了一个问题,怎么衡量消除不确定性的大小的呢?
举一个栗子,小明在做单选题(备选有ABCD)时,完全不知道应该选哪一个,这时候小红出来告诉小明,A是错的!这时小绿出来告诉小明正确答案是C。在假设小红小绿都提供的信息是正确情况时,且小明完全相信两人。这时显然小绿完全消除了小明的不确定性,而小红只是部分消除了小明的不确定性。我们大致可以判断,小明提供的信息明显比小红多!!!小绿对于小明正确选出正确答案更重要!!!
但是多多少,重要多少,我们就需要引入一个具体的量,这个量就成为信息量。
再举一个栗子:小明小红都很高,小绿更高。我们对于这种模糊性的词语(更,很)其实都可以具体的量化。例如小明小红都很高的,有175!小绿更高,185!这里显然,我们都默默地在心里给175,185后面加上了一个单位cm。显然这个cm可以用来衡量高度,而cm的长度,我们时统一度量衡的时候就确定的。
因此这里信息量的引入也需要一个基本的单位。现代信息论的奠定人香农(Shannon)给出了信息的定义,并对信息进行了信息量的量化度量。
最简单的具有不确定性的事情可以说是抛一次硬币。抛一次硬币这个事情的情况有两种,硬币正面朝上或是反面朝上,并且这两种情况发生的概率相等,都是50%。对于这个不确定性的事情,现在我们要消除它的不确定性,只需要给出“正面朝上”或是“反面朝上”这一信息,就能消除它的不确定性。
既然具有最简单的不确定性的事情是抛一次硬币,那么现在,我们拿抛一次硬币这件事情,来衡量其他具有不确定性的事情。同样的道理,我们拿用来消除抛一次硬币的不确定性的信息的信息量,作为信息量的基本单位,bit(比特)。(或1bit)
比特率与波特率的区别_第1张图片
现在回到最初第一个小明做选择题的栗子,小明选ABCD的不确定性=抛两次硬币的不确定性。选A,B,C,D的概率均为25%,而抛两次硬币出现的结果正正,正反,反正,反反,也均为25%。我们规定前面已经规定,消除抛一次硬币的不确定性的信息的信息量,作为信息量的基本单位,bit(比特)。,因此消除抛两次硬币的不确定信息的信息量就是2bit。显然,小绿给小明提供了2bit的信息!!
同样的将选项的个数改为8,16…后,条件不变,小绿则分别提供的信息是3bit,4bit…但是这里显然都是2m=0,1,2…)消除包含 2 m {2^m} 2m 次等概率情况事情的不确定性所需要信息的信息量为 log ⁡ 2 m \log_{2}{m} log2mbit的信息量。
当小紫告诉小明,C有1/2的可能是正确的,我们就没办法使用 log ⁡ 2 m \log_{2}{m} log2m来计算该信息的信息量了,因为其可能的情况非等概率。
于是我们转换思路 。我们从小紫的话中的当得知A,B,D均为1/6,C为1/2相比较于1bit是其多少倍呢?
我们知道1%会发送的情况相当于从100个等概率事件中确定实际的情况,p=1/100概率的倒数等于等概率情况的个数,我们从此可以用等概率情况的公式来计算,之后再成以该事件发生的概率,然后四种情况向加就可以得到该信息的bit数。
1 / 2 × log ⁡ 2 2 + 1 / 6 × log ⁡ 2 2 × 3 = 1.79 1/2\times \log_{2}{2} +1/6\times \log _{2}{2}\times 3=1.79 1/2×log22+1/6×log22×3=1.79
比特率与波特率的区别_第2张图片

参考于建国博士的 【学习观10】老师,我没有传纸条作弊,我在学习信息论,【学习观11】为什么信息还有单位?如何计算信息量?,参考知乎文章[信息论也能如此简单]------信息和熵

二,波特率与比特率的区别

1,定义:信息速率或比特率

二进制数字通信系统中每秒传送的二进制符号数可用每秒传送的最大信息量来表征,单位为比特/秒(bit/s),称为信息传输速率,又称信息速率或比特率。–(from 《通信原理》- 周炯槃-第五章数字信号的基带传输)
因为前面我们知道,抛一次硬币的不确定性为1bit,因此在已知为0-1的二进制系统中,消除一个不确定性需要传输1bit信息,因此才有了这样的定义。在一个二进制系统中,每秒传输的二进制符号数(0-1),等于每秒传输的最大信息量(因为01等概率时候,其信息量是最大的,例如前者ABCD四个选项中,当ABCD正确的概率不等时候,答案是ABCD的熵,或者说该信息所携带的信息量,为1.79bit,而当其ABCD等概率,答案是ABCD的熵2bit)
在这里插入图片描述
在这里插入图片描述

2,定义:码元传输速率(波特率,码元速率,符号速率)

M进制数字通信系统中每秒传送的M进制符号数被称为码元传输速率或者符号速率,单位为Baud,也可用符号/秒表示为symbol/s来表示。
在这里插入图片描述

3,波特率与比特率的区别(信息速率与码元速率的区别)

在M进制的数字通信系统中,若 M = 2 k M=2^{k} M=2k ,他表示每K个二进制符号与M进制符号之一对应,则M进制符号速率(波特率) R b R_{b} Rb与二进制信息传输速率(比特率) R s R_{s} Rs之间的转换关系为 R s = R b log ⁡ 2 M = R b K B a u d R_{s} =\frac{R_{b}}{\log_{2}{M} } = \frac{R_{b}}{K} Baud Rs=log2MRb=KRbBaud即为 R b b i t = R s B a u d × log ⁡ 2 M = R s K b i t / s R_{b}bit=R_{s}Baud\times \log_{2}{M}=R_{s}Kbit/s Rbbit=RsBaud×log2M=RsKbit/s表示每传输 R s R_{s} Rs个M进制符号,等效为每秒传输送( R s × log ⁡ 2 M R_{s}\times \log_{2}{M} Rs×log2M)个二进制符号。

当波特率为9600时,
若M=2,数据传输率为9600bit/s
若M=16,数据传输速率为38400kbit/s
这里举一个栗子:
当M=4,k=2,则有对应的2个二进制表示4一个四进制符号,这里假设对于关系如下

四进制 二进制
0 00
1 01
2 02
3 03

则有传输一个四进制的符号信息量,等于传输了两个二进制符号所携带的信息量,因此当波特率为9600时,若M=4,数据传输率为19200bit/s
以上便是波特率与比特率的相关内容,有问题欢迎在评论中指出!

参考《通信原理》- 周炯槃,《N值表示的比特率与波特率间的关系》

你可能感兴趣的:(学习杂记总结)