fbpx
维基百科

信息冗余

信息论中,信息冗余是传输消息所用数据位的数目与消息中所包含的实际信息的数据位的数目的差值。数据压缩是一种用来消除不需要的冗余的方法,校验和是在经过有限信道容量的噪声信道中通信,为了进行错误校正而增加冗余的方法。

定量定义 编辑

在描述原始数据的冗余时,信源信息率为平均每个符号的。对于无记忆信源,这仅是每个符号的熵;而对于一个随机过程的最普遍形式为前 n 个符号的联合熵除以 n 之后,随着 n 趋于无穷时的极限

 

在信息论中经常提及一种语言的“熵率”或者“信息熵”。当信源是英文散文时这是正确的。由于无记忆信源的消息之间没有相互依赖性,所以无记忆信源的信息率为 

信源的绝对信息率

 

即是消息空间基数对数值。这个公式也称作Hartley函数。这是传送用这个字母表表示的信息的最大信息率。其中对数要根据所用的测量单位选择合适的底數当且仅当信源是无记忆的且均匀分布的时候,绝对信息率等于信息率。

绝对信息冗余定义为

 

即信息率与绝对信息率之间的差。

 称为相对信息冗余,它表示了最大的数据压缩率,这个压缩率用文件大小减小比例所表示。当用原始文件与压缩后的文件表示的时候, 表示能够得到的最大压缩率。与相对信息冗余互补的是效率 ,于是 。均匀分布的无记忆信源的冗余为0,效率为100%,因此无法压缩。

其它的冗余概念 编辑

两个变量之间冗余的度量是互信息或者正规化变量。多个变量之间冗余的度量是全相关(total correlation)。

压缩数据的冗余是指   个消息的期望压缩数据长度为 (或期望数据熵率  )与熵值  (或熵率  )的差。(这里我们假设数据是遍历的也是平稳的,例如无记忆信源。)虽然熵率之差   会随着   增加而任意小,实际的差   已不能(尽管理论上可以)在有限熵的无记忆信源情况下上界为 1。

参见 编辑

参考文献 编辑

  • Reza, Fazlollah M. An Introduction to Information Theory. New York: Dover. 1994 [1961]. ISBN 0-486-68210-2. 
  • Schneier, Bruce. Applied Cryptography: Protocols, Algorithms, and Source Code in C. New York: John Wiley & Sons, Inc. 1996. ISBN 0-471-12845-7. 
  • Auffarth, B; Lopez-Sanchez, M.; Cerquides, J. Comparison of Redundancy and Relevance Measures for Feature Selection in Tissue Classification of CT images. Advances in Data Mining. Applications and Theoretical Aspects. Springer. 2010: 248–262. CiteSeerX: 10.1.1.170.1528 . 

信息冗余, 在信息论中, 是传输消息所用数据位的数目与消息中所包含的实际信息的数据位的数目的差值, 数据压缩是一种用来消除不需要的冗余的方法, 校验和是在经过有限信道容量的噪声信道中通信, 为了进行错误校正而增加冗余的方法, 目录, 定量定义, 其它的冗余概念, 参见, 参考文献定量定义, 编辑在描述原始数据的冗余时, 信源信息率为平均每个符号的熵, 对于无记忆信源, 这仅是每个符号的熵, 而对于一个随机过程的最普遍形式为前, 个符号的联合熵除以, 之后, 随着, 趋于无穷时的极限, displaystyle, i. 在信息论中 信息冗余是传输消息所用数据位的数目与消息中所包含的实际信息的数据位的数目的差值 数据压缩是一种用来消除不需要的冗余的方法 校验和是在经过有限信道容量的噪声信道中通信 为了进行错误校正而增加冗余的方法 目录 1 定量定义 2 其它的冗余概念 3 参见 4 参考文献定量定义 编辑在描述原始数据的冗余时 信源信息率为平均每个符号的熵 对于无记忆信源 这仅是每个符号的熵 而对于一个随机过程的最普遍形式为前 n 个符号的联合熵除以 n 之后 随着 n 趋于无穷时的极限 r lim n 1 n H M 1 M 2 M n displaystyle r lim n to infty frac 1 n mathrm H M 1 M 2 dots M n nbsp 在信息论中经常提及一种语言的 熵率 或者 信息熵 当信源是英文散文时这是正确的 由于无记忆信源的消息之间没有相互依赖性 所以无记忆信源的信息率为H M displaystyle mathrm H M nbsp 信源的绝对信息率为 R log M displaystyle R log mathbb M nbsp 即是消息空间基数的对数值 这个公式也称作Hartley函数 这是传送用这个字母表表示的信息的最大信息率 其中对数要根据所用的测量单位选择合适的底數 当且仅当信源是无记忆的且均匀分布的时候 绝对信息率等于信息率 绝对信息冗余定义为 D R r displaystyle D R r nbsp 即信息率与绝对信息率之间的差 D R displaystyle frac D R nbsp 称为相对信息冗余 它表示了最大的数据压缩率 这个压缩率用文件大小减小比例所表示 当用原始文件与压缩后的文件表示的时候 R r displaystyle R r nbsp 表示能够得到的最大压缩率 与相对信息冗余互补的是效率r R displaystyle frac r R nbsp 于是r R D R 1 displaystyle frac r R frac D R 1 nbsp 均匀分布的无记忆信源的冗余为0 效率为100 因此无法压缩 其它的冗余概念 编辑两个变量之间冗余的度量是互信息或者正规化变量 多个变量之间冗余的度量是全相关 total correlation 压缩数据的冗余是指 n displaystyle n nbsp 个消息的期望压缩数据长度为L M n displaystyle L M n nbsp 或期望数据熵率 L M n n displaystyle L M n n nbsp 与熵值 n r displaystyle nr nbsp 或熵率 r displaystyle r nbsp 的差 这里我们假设数据是遍历的也是平稳的 例如无记忆信源 虽然熵率之差 L M n n r displaystyle L M n n r nbsp 会随着 n displaystyle n nbsp 增加而任意小 实际的差 L M n n r displaystyle L M n nr nbsp 已不能 尽管理论上可以 在有限熵的无记忆信源情况下上界为 1 参见 编辑信源编码 信源编码定理 数据压缩 负熵参考文献 编辑Reza Fazlollah M An Introduction to Information Theory New York Dover 1994 1961 ISBN 0 486 68210 2 Schneier Bruce Applied Cryptography Protocols Algorithms and Source Code in C New York John Wiley amp Sons Inc 1996 ISBN 0 471 12845 7 Auffarth B Lopez Sanchez M Cerquides J Comparison of Redundancy and Relevance Measures for Feature Selection in Tissue Classification of CT images Advances in Data Mining Applications and Theoretical Aspects Springer 2010 248 262 CiteSeerX 10 1 1 170 1528 nbsp 取自 https zh wikipedia org w index php title 信息冗余 amp oldid 74329561, 维基百科,wiki,书籍,书籍,图书馆,

文章

,阅读,下载,免费,免费下载,mp3,视频,mp4,3gp, jpg,jpeg,gif,png,图片,音乐,歌曲,电影,书籍,游戏,游戏。