信息理论基础

离散信源:信源输出的都是单个符号(或代码)的消息,它们符号集的取值是有限的或可数的。可用一维离散型随机变量X来描述这些信源的输出。这样的信源称为~。

连续信源:输出消息的符号集A的取值是连续的,或取值是实数集(-∞,∞)我们可用一维的连续型随机变量X来描述这些信源的输出。这样的信源称为~。

离散平稳信源:若信源输出的随机序列X=(X1,X2,XN)中,每个随机变量Xi(i=1,2,…N)都是取值离散的离散型随机变量,即每个随机变量Xi的可能取值是有限的或可数的。而且随机矢量X的各维概率分布都与时间起点无关,也就是在任意两个不同时刻随机矢量X的各维概率分布都相同。这样的信源称为~。

连续平稳信源:若信源输出的消息可用N维随机矢量X=(X1,X2,XN)来描述,其中每个随机分量Xi(i=1,2,…N)都是取值为连续的连续型随机变量(即Xi的可能取值是不可数的无限值),并且满足随机矢量X的各维概率密度函数与时间起点无关,也就是在任意两个不同时刻随机矢量X的各维概率密度函数都相同,这样的信源称为~。

离散无记忆信源的扩展信源:多符号离散平稳信源[X]=X1,X2,…XN中,符号的随机变量Xi都取值于同一个信源空间,多符号离散平稳信源[X]= X1,X2,…XN中,各变量Xi(i=1,2,…N)之间统计独立。

有记忆信源:信源输出的平稳随机序列X中,各随机变量Xi之间是相互依赖的。这种信源称为有记忆信源。

尔可夫信源:m阶马尔可夫信源就是每次发出的符号只与前m个符号有关,与更前面的符号无关。

时齐马尔可夫链:如果上述条件概率与时间起点i无关,即信源输出的符号序列可看成为时齐马尔可夫链,则此信源称为时齐马尔可夫信源。

随机波形信源:实际信源输出的消息常常是时间和取值都是连续的。对于这种信源输出的消息,可用随机过程来描述,称这类信源为随机波形信源。

信源的分类

自信息(自信息量)

不确定性:在一个通信系统中,收信者所获取的信息量,在数量上等于通信前后对信源的不确定性的减少量。

不确定性:在一个通信系统中,收信者所获取的信息量,在数量上等于通信前后对信源的不确定性的减少量。

自信息定义:

def \qquad I(a_i) = - \log P(a_i)

信息采用的单位取决于对数所选取的底。如果取以2为底,则取得的信息量单位称为比特(bit);如果以e为底,称为奈特(nat),如果以10为底的对数,则所得的信息量单位称为哈特(Hart)。

条件自信息定义:

def \qquad I(x_i | y_i) = - \log [p(x_i | y_i)]

定义所表达的是一个联合事件xy,在某一个变量x(或y)被确知之后,另一个变量y(或x)还剩下的不确定度;或者说另一个变量y(或x)将还能带给接收者多么大的信息量。

信息熵定义:

定义自信息的数学期望为信源客观上的平均信息量,称为信源的信息熵(Entropy)。

H(X) = E[I(a_i)] = \sum _{i=1} ^q P(a_i)I(a_i) = - \sum _{i=1} ^q P(a_i) \log P(a_i)

H(X)表示信源发出任何一个消息状态所携带的平均信息量,也等于在无噪声条件下,接收者收到一个消息状态所获得的平均信息量。

信息熵与平均信息量的关系:

只有在无干扰的情况下,接收者准确无误的收到每一条消息后,同时也完全解除了它们的不定度时才能说接收者所获得的平均信息量等于信息熵。

所以一般来讲,信源的信息熵 H 并不等于接收者所获得的平均信息量。

因此我们讲信息熵并不反映从信源中平均能获多少信息量,而是从平均的意义上,代表信源所客观存在着发送信息的能力。

信息熵的基本性质:

  • 非负性(信息熵始终大于等于0)
  • 对称性(元素概率互换,熵不变)
  • 确定性(信息熵为0时,则有事件一定发生)
  • 连续性(有概率分布上的微小波动时,可以忽略)
  • 扩展性(多出小概率特别事件时,对总体熵影响微小)
    • 信源的取值增多时,若这些取值对应的概率很小(接近于零),则信源的熵不变。虽然概率很小的事件出现后,给予收信者较多的信息。但从总体来考虑时,因为这种概率很小的事件几乎不会出现,所以它在熵的计算中占的比重很小。这也是熵的总体平均性的一种体现。
  • 可加性
    • I(x; yz) = I(x; y) + I(x; z|y)
    • H(XY) = H(X) + H(Y|X)
    • 此性质的物理含义,即知识的可积累性.
    • 具体的讲:熵函数是作为一个集合中的总体平均不定度特征,应对集合中元素的如何划分是无关的。
    • 从另一方面看,可加性所反映的是任何复杂问题,都可以分步解决。
  • 递增性
  • 极值性
    • H_q(p_1, p_2, ..., p_q) \leq - \sum _{i=1} ^q p_i \log q_i
    • where : \sum _{i=1} ^q p_i = \sum _{i=1} ^q q_i = 1
    • 上式表明,任何概率分布下的信息熵一定不会大于它对其它概率分布下自信息的数学期望。
    • 离散信源下的最大熵定理:任何离散信源,不论它取何种概率分布,所得的信息熵H(X)一定不会大于等概率分布时的信息熵(log q)。

  • 上凸性
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,163评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,301评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,089评论 0 352
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,093评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,110评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,079评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,005评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,840评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,278评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,497评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,667评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,394评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,980评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,628评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,796评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,649评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,548评论 2 352

推荐阅读更多精彩内容