台交大信息论 Lecture 1
课程主页:
- https://ocw.nctu.edu.tw/course_detail-c.php?bgid=8&gid=0&nid=612&pid=973
- http://shannon.cm.nctu.edu.tw/it18.htm
老师主页:
课程视频:
这次回顾第一讲,主要介绍了信息论背后的哲学,对应视频1-2。
概述:信息论背后的哲学
如何度量信息
信息内容的定量定义(概率视角)
公理:
- 事件概率的单调性:如果事件发生的可能性较小,则在事件发生时应携带更多信息,因为不确定事件是否会发生。
- 可加性:对信息度量具有“可加性”是合理的,即,联合事件的不确定度应等于单个(但不相交)事件的不确定度之和。
- 连续性:事件概率的小变化仅会导致事件不确定性的小变化。 例如,两个事件的概率分别为$0.20001$和$0.19999$,应该合理地拥有可比较的信息内容。
可以证明,满足上述公理的“度量”为:
熵定义为信息内容的期望,即
Dictionary/codebook/code
- 发射方和接收方对符号化信息做出的假设,
- 所传送信息的所有“可能符号”都是先验已知的。
- 接收方只是不确定将要接收到哪个符号。
- 例子:在使用英语的对话中,
- 众所周知,英语词典中的一个词汇将被说出。
- 在收到之前无法分辨是哪一个。
- 例子:在编码数字通信中,
- codebook(或简称code),所有可能的预定义符号的集合,总是先验已知的(对于接收者)。
- 只是不确定将要接收到哪个。
编码紧凑度的度量
那么不同的编码有什么区别呢?回答是编码的紧凑度。
考虑这个例子,$4$个事件的概率为$\{1 / 2,1 / 4,1 / 8,1 / 8\}$,现在用两种编码表示上述事件:
code1的平均码长为
code2的平均码长为
计算code2的熵得到
所以code2的平均码长等于熵,后续可以证明,一个编码的最优平均码长(不会产生歧义的编码)即为其熵,所以如果根据平均码长来度量,那么code2是最优的编码。
还有一些其他的度量,例如
以及Renyi熵
这些度量分别对应了在不同评价标准下的最优解,例如对于$L(t)$,不难发现:
噪声通道上的数据传输
由于噪声的存在,所以需要增加了编码冗余以消除噪声。例如,可以使用三遍重复代码:
上述编码每3个信道比特传送1个信息,说明信息传输效率为$1/3$。
信息传输
整个信息传输系统如下:
源编码器设计
香农的结论告诉我们,
并且有如下重要命题:
如果源编码器是最优的,那么输出$\ldots, U_{3}, U_{2}, U_{1}$是在$\mathcal U$上的均匀分布。
考虑之前的例子:
其中源编码器为:
那么$\mathcal U= \{0,1\}$,考虑第一项为$0$的概率:
考虑第二项为$0$的概率:
类似可以证明
源编码器和信道编码器的分别设计
源编码器
- 寻找信息性消息的最紧凑的表示形式。
- 源压缩率$=U$的数量$/Z$的数量。
- 所以源压缩率越小越好。
信道编码器
- 根据噪声模式,添加冗余,以便可以可靠地传输源比特。
- 信道码率$=U$的数量$/X$的数量。
- 所以信道码率越大越好。
根据之前介绍的内容,我们假设$\left\{U_{j}\right\}_{j=1}^{m}$服从均匀分布,那么错误率为:
信道容量
- 对于固定的噪声信道。在信息符号的错误概率任意小的条件下,信道码设计可达到的最大传输效率(即信道码率)是多少?
- 香农将最大传输效率定义为信道容量,后续会详细介绍。
互信息
- 观察到良好的信道编码基本上会增加信道输出到信道输入的确定性,尽管在传输开始之前信道输入和信道输出都是不确定的(其中信道输入由传输的信息决定,信道输出是信道输入和噪声的联合结果) 。
- 因此,良好的信道代码设计应在信道输入和输出之间更多地考虑统计上的“共享信息”,以便一旦观察到信道输出,接收器就可以更加确定要传输哪个信道输入。
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 Doraemonzzz!
评论
ValineLivere