互信息量极其性质
互信息量
这里的 I 指的是流经信道前后, 是前,这里可以认为是独立的, 是后,可以认为不独立,
就是两者互相影响的那部分惊喜度,是惊喜度被条件确定降低下来的部分,代表已经确定的东西,代表从 b 得到的关于 a 的信息量
指向原始笔记的链接
平均互信息量
什么,竟然和 互信息量 用一样的符号
平均互信息量是收到 Y 前后关于 X 的惊喜度减少的量,也是通信后整个系统惊喜度减少的量
信息就是负熵——从一个事件获得另一个事件的平均互信息需要消除不确定度,一旦消除了不确定度,就获得了信息
平均互信息量的性质
- 对称性:
- 非负性:
- 极值性:
如果 X 和 Y 一一对应,则
如果 X 和 Y 相互独立,则
凸函数性
在固定信道 的时候是信源 的上凸函数
两种不同的信源分布传输信息,取他们的“平均”信源分布,这种“平均”信源分布传输的互信息会大于等于分别传输的互信息的平均值。
在固定信源分布 的时候是信道 的下凸函数
“混合”两个信道的时候并不会比单独使用其中一个信道取平均值更好
数据处理定理
有这么一条马尔可夫链 X→Y→Z,这意味着 Z 的状态只取决于 Y 的状态,而与 X 的状态无关(给定 Y 的情况下,X 和 Z 是条件独立的)。那么有:
Z 能够告诉关于 X 的信息,最多只能和 Z 能够告诉你关于 Y 的信息一样多:
同样的,通过 Z 能够知道 X 的信息,最多也只能和通过 Y 能知道 X 的信息一样多:
链式法则
代表在已知 的情况下,通过 还能获得多少关于 X 的信息
多次测量
多次测量的互信息量比单词测量的互信息量要大
指向原始笔记的链接
信道容量
信道容量
信道容量 C 是在所有可能的信源输入分布 中,能够达到的最大互信息
也就是不管你怎么好的编码,只要通过我这个信道,最大 平均互信息量 就定了(天花板),这个值就是信道容量
通过等价转换,上面的式子可以有下面的理解:
指向原始笔记的链接
- 是“发送了多少信息 - 噪声损失了多少信息”
- 是“接收到了多少的惊喜度 - 噪声引入的惊喜度”
前面讨论的 链式法则 提到了,这是一个上凸函数,只要固定信道,那么在 的取值空间内肯定能够用凸优化的方法找到使互信息最大的那个
几种特殊的离散信道的信道容量: