请输入您要查询的字词:

 

单词 数据压缩与编码理论
释义

【数据压缩与编码理论】
 

拼译:theory of data compression and coding
 

数据压缩的理论基础是信息论中的信源编码理论,即研究如何以最少的数码代表信源所发信号的理论,目的是要减小容纳给定消息集合的信号空间,从而节约存贮数据的物理空间,缩短传输给定信源的时间间隔或压窄传输该信源所占用的电磁频谱带宽。但现在“数据压缩”和“信源编码”这两个术语已具有相同含义。

莫尔斯电码是最原始的变长码数据压缩实例。1939年达德利(H.Dudley)发明了通道声码器,成为第1个语音压缩系统。1938年里夫斯(Reeves)、1946年德劳雷恩(E.M.Deloraine)、1952年卡特勒(C.C.Cutler)分别取得了PCM、ΔM和DPCM的专利,奥利弗(B.M.Oliver)等人开始了线性预测图象编码理论的研究。1960年马克斯(J.Max)发表了确知分布信号最佳标量量化算法;1963年黄(J.J.Y.Huang)等人首先提出了对相关随机变量先正交变换再分组量化的方法。但有关数据压缩的理论研究,还是在仙农信息论基础上开始的。1948年仙农首次提到信息率-失真函数概念,1959年他又进一步确立了率失真理论,从而奠定了信源编码的理论基础,伯杰(T.Berger,1971)等人进行了深入的研究。

信源编码定理指明的压缩极限,成为编码工作者努力的目标。1952年哈夫曼(D.A.Huffman)给出了最优变长码的构造方法;1966年戈隆布(S.W.Golomb)阐述了二进制串的游程编码方法(1979年成为里斯桑内等人发表的算术码的一个特例);林奇(T.J.Lynch)和戴维森(L.D.Davisson)提出了重要的LD码,因其无需任何信源统计知识,而长度无限时码率逼近独立字符信源熵,1973年戴维森称之为通用编码理论,得到的最佳码称为泛码(Universal Coding)。LD码是一种极大极小泛码,1973年成为科弗(T.M.Cover)枚举码的特例。1977年劳伦斯(J.C.Lawrence)提出了变量-分组码;1978年齐弗(J.Ziv)和兰佩尔(A.Lempel)提出了语法解析码(ZL码)。1983年里斯桑内揭示并强化了ZL码特点而导出了自己的泛码;而1984年韦尔奇(T.A.Welch)则以LZW算法为名给出了ZL码的实用修正形式,已经在一些操作系统中作为标准的文件压缩命令。1992年约库(H.Yokoo)给出了3种将上述ZL、LZW及里斯桑内算法联系起来的更快速的序列数据压缩方法,适于在线处理。

率失真理论研究的一个重要内容,是在码率一定时对给定信源求分组编码在单符号保真度准则下的最佳失真。根据仙农的研究,平稳遍历信源的最佳失真可由率失真函数给出。1974年格雷(R.W.Gray)等人取消了遍历性限制,1987年凯菲尔(JC.Kieffer)又对于有限符号集将结论推广到非平稳信源,而源分布已知时率失真函数的迭代数值解法1972年即由布莱哈特(R.E.Blahut)解决。

对于N个信号单元(2≤N<∞)的离散信源,各单元出现概率Pk≥Pk+1(1≤K<N),采用D元(2≤D<∞)最佳非续长编码,理论界希望估计其冗余度。1978年加拉格(R.G.Gallager)首先给出了P1已知时二元哈夫曼码冗余度的上界,且当0.5≤P1<1时为紧上界。90年代初,计算紧上界的范围已下推到任意P1≥1/127,对于D≥2,算出了紧下界且部分结论已推至N=∞;对于D≥3和P1≥1/2,求出了紧上界;对于D=2、仅知Pn且0<Pn≤0.5,求出了紧上、下界,以及仅知Pn-1和Pn或P1和Pn时的一些结论。

对各种语言、音频、图片和视频信号的实用压缩技术的研究,更多地得益于数字信号处理、时间序列分析、参数估计、离散变换、模式分类、自适应技术、感知生理心理学等理论的发展。由于对人的发声机理、听觉特性和语音信号本身的自回归模型研究较早,与视频信号相比,语音只有一维且频率低,易于实时处理,因此比图象编码更成熟,除要求高者仍用波形编码外,低码率传输普遍采用了基于分析-合成思想的各种声码器。图象编码直接借鉴了语音压缩的许多成熟技术。1966年奥尼尔(J.B.O’Neal)对比分析了DPCM和PCM并提出了用于电视的实验数据;1968年安德鲁斯(H.C.Andrews)等人用DFT进行二维图象变换编码;1973年哈比比(A.Habibi)提出兼有二者优点的变换/DPCM混合编码。1974年阿麦德(N.Ahmed)等人给出了DCT的定义和快速算法,并证明其接近于最佳的KLT对马尔柯夫过程图象数据的变换效率。此后对DCT的性质、快速算法、各种变型及其应用研究日益增多。1984年陈文雄等人研制出一种性能优良的DCT景物自适应编码器,其主要思想成为1990年以来形成的用于静止图片、数字视频、多媒体及HDTV的JPEG、H·261、MPEG等国际标准的基本环节。标准的建立不仅极大地推进了图象压缩技术实用化,也在一定意义上刺激了理论研究进一步开展。二值图象编码进展显著,80年代末期以来,各种自适应算术编码方法(包括IBM的Q码)的速度与压缩比均已超过CCITTG4标准。

进入80年代,基于延迟判决思想的多径搜索编码(MSC)日益受到重视,它可以分为矢量量化(VQ)、树编码和网格编码3种。理论界对按序列量化的树/网格编码(网结构实为截短的树结构)更为注意,因其能以比分组编码低的复杂性任意逼近有记忆信源的率失真界,而且可用信道编码中的卷积码实现,因而促进了信源编码与信道编码实现技术统一化。而按分组编码的VQ技术,似乎更容易理解,在低比特率编码中得到了更广泛的研究与应用。1989年,鲁卡鲍格(T.D.Lookabaugh)等人对VQ的性质作了较为细致的定量对比研究。

由于以感知失真为准则而得到的信息熵往往比经典值低得多,因此尽可能利用人类视觉模型(HVM)掩盖熵压缩带来的量化失真,一直是研究热点之一。1983年霍尔(C.F.Hall)、1988年吴乐南等人发展了基于大尺寸变换的视觉心理域压缩,缺点是难以实时;1985年孔特(M.Kunt)等人提出基于模式识别和人工智能的第2代图象编码技术的定义,但恢复图象的主观自然度欠佳。另一个热点类似于声码器的建模与分析合成方法,如用于可视电话的人脸线帧(Wire frame)模型及基于分析图象的分形(Fractctal)结构、采用仿射变换和叠函数生成的压缩方法,后者可达到1万倍的压缩比,但通用性还不够,且编码计算量极大。

更深层次地揭示信道编码与信源编码的相似性,以联合手段同时解决信源与信道最佳编码,结合人类的生理感知与心理认知修正或突破仙农信息论界限,不仅是理论工作者的兴趣所在,也是通信工程师的殷切期待。以接近最佳理论界为目标,发展具有高压缩比、高保真度的各种数据压缩技术,是理论与应用研究共同的奋斗目标。考虑了HVM并综合人工神经网络、分形、模糊集、MSC、子带编码、小波(Wavelet)变换和基于知识的参数模型等优点的一些方法,有希望取得进展。

【参考文献】:

1 Kieffer J C.IEEE Trans.on IT,1987,IT-33∶651~655

2 吴乐南,等,通信学报,1988,9(1):61~68

3 Barnsley M F,et al.BYTE 1988,1∶215∶223

4 Lookabaugh T D,et al.IEEE Trans.on IT,1989,IT-35∶1020~1033

5 Capocelli R M,et al.IEEE Trans.on IT,1991,IT-37∶1095~1104

6 Manstetten D.IEEE Trans.on IT,1992,IT-38∶144~151

7 Yokoo H.IEEE Trans.on IT,1992,IT-38∶73~81

8 Jayant N.IEEE J.Seleect.1992,10∶796~819

9 张豫伟,等,通信学报,1992,13(2):1~9

10 徐澄圻,等,CCSP’92会议论文集:257~260

(东南大学吴乐南教授撰)

随便看

 

科学参考收录了7804条科技类词条,基本涵盖了常见科技类参考文献及英语词汇的翻译,是科学学习和研究的有利工具。

 

Copyright © 2000-2023 Sciref.net All Rights Reserved
京ICP备2021023879号 更新时间:2024/12/23 9:20:21