第7章 图像编码与压缩
第7章 图像编码与压缩
7.1 图像压缩的基本概念 7.2 无损压缩
7.3 有损压缩 7.4 压缩标准
图像压缩的基本概念
• 用数字形式表示图象使可视化信息以高效、
新颖方式加以控制,其应用已经非常广 泛,如卫星遥感、医学影象分析、脸谱识 别、精确制导等。然而,这种表示方法需 要大量的数据(比特数)。例如的电视图 像,用波特在电话线上传输,单幅图象传 输需要分钟左右,这通常是不能接受的。
• 我们知道编码是用符号数码元素表示信号、
消息或事件的过程。图象编码是研究图象 数据的编码方法,期望用最少的数码表示 信源发出的图象信号,使数据得到压缩,
减少图象数据占用的信号空间和能量,降 低信号处理的复杂程度。
• 这里的信号空间是指:
– 物理空间——存储器、磁盘等数据存储介质;
– 时间空间——传输给定消息集合所需要的时 间;
– 电磁频谱空间——传输给定消息集合所需要的 带宽。
• 图象编码主要是研究信源编码。人类社会 已经进入信息时代,从而引起“信息爆炸”。
信息数据压缩特别是图象信息数据压缩,
其社会效益和经济效益将越来越明显,未 来的图象通讯、多媒体技术和目标识别等 领域对数据处理速度、存储容量都提出新 的要求,图象数据压缩是必要的。
• 同时,图象数据压缩也是可能的
数字图像本身的特征带来的数据压 缩的可能性
• 图象中象素灰度出现的不均匀性,造成图 象信息熵冗余,即用同样长度比特表示每 一个灰度,则必然存在冗余。而将出现概 率大的灰度级用长度较短的码表示,将出 现概率小的灰度级用长度较长的码表示,
有可能使编码总长度下降。
• 图象能量在变换域内分布的不均匀性,比 如大部分能量集中在低频部分,而小部分 能量集中在高和较高的频率部分,此时,
对变换域信号进行与上述1、的方法,则 可提高编码效率。
• 图象象素灰度在时间和空间上的相关性造 成信息冗余。
• 例如
– 空间冗余,邻近象素灰度分布的相关性很 强;
– 频间冗余,多谱段图象中各谱段图象对应象 素之间灰度相关性很强;
– 时间冗余,序列图象帧间画面对应象素灰度 的相关性很强。
应用环境允许图象有一定程度失真
• 接收端图象设备分辨率较低,则可降低图 象分辨率;
• 根据人的视觉特性对不敏感区进行降分辨 率编码(视觉冗余);
• 应用方关心图象区域有限,可对其余部分 图象可采用空间和灰级上的粗化;
• 对于识别,图象特征抽取和描述也是数据 压缩。
• 图象编码方法有许多,但从技术角度来看,可以 分作两大类:
• 无失真编码(无损压缩、可逆压缩)是一种经编、
解码后图象不会产生失真的编码方法,可重建图 象,但压缩比不大;
• 有失真编码(有损压缩、不可逆压缩)解码时无 法完全恢复原始图象,压缩比大但有信息损失。
• 这里的失真是指编码输入图象与解码输出图象之 间的随机误差,而压缩比指原图象比特数与压缩 后图象比特数之比。
• 图象编码是从不同角度消除图象数据中的冗余,
减少表示图象所需的比特数,或平均比特数,实 现数据压缩。
• 传统的图象编码方法有脉码调制、量化算法、空 间和时间亚取样编码、熵编码、预测编码、变换 编码、矢量量化和子带编码等。
• 而新型编码技术包括第二代图象编码方法、分形 编码、基于模型编码和小波编码等。
∑
−=
=
10 L
i
i
i
p
B β
i L
i
i
p
p
H
21
0
∑
−log
=
−
=
冗余度为
编码效率为
− 1
= H r B
r B
H
= +
= 1
η 1
图像冗余度和编码效率
根据Shannon无干扰信息保持编码定理,若对原始 图像数据的信息进行信源的无失真图像编码,压缩后 平均码率存在一个下限,这个下限是信源信息熵H。理 论上最佳信息保持编码的平均码长可以无限接近信源 信息熵H。但总是大于或等于图像的熵H。
统计编码方法
霍夫曼编码
Huffman编码是1952年由Huffman提出的一种编码方法。
这种编码方法根据源数据符号发生的概率进行编码。
在源数据中出现概率越大的符号,编码以后相应的码 长越短;出现概率越小的符号,其码长越长,从而达到用 尽可能少的码符表示源数据。它在无损变长编码方法中是 最佳的。下面通过实例来说明这种编码方法。
设输入编码为 ,其频
率分布分别为P(x1)=0.4,P(x2)=0.3,P(x3)=0.1,P(x4)
=0.1,P(x5)=0.06,P(x6)=0.04。求其最佳霍夫曼编码
{
1,
2,
3,
4,
5,
6}
X = x x x x x x
{ w
1 ,w
2 ,w
3 ,w
4 ,w
5 ,w
6}
W =
编码方法是:
①把输入元素按概率从大到小排列起来,然后把概率 最小的两个元素概率加起来;
②把它同其余元素概率由大到小排序,然后把两个最小概率 加起来,再重新排队;
③重复②,直到最后只剩下两个概率为止。
在上述工作完毕之后,从最后两个概率开始逐步向前 进行编码。对于概率大的消息赋予0,小的赋予1。
元 素xi 概率P(xi) 编 码wi
x1 x2 x3 x4 x5 x6 0.4 0.3 0.1 0.1 0.06
1 00 011 0100 01010
元 素xi 概率P(xi) 编 码wi
x1 x2 x3 x4 x5 x6 0.4 0.3 0.1 0.1 0.06 0.04
1 00 011 0100 01010 01011
用二叉树方法实现Huffman编码方法也较为便利。
0 1
x
100 x
201
011 x
3010
0100 x
401011
x
601010
x
50101
计算该信源的熵、编码后的平均码长,并思考对 于同一图象采用Huffman编码,编码是否唯一?
?
• 例: 分别表示要传递的四种可能 消息,如果我们选择一符号集合,每一个 符号分别代表一种消息,(符号集中符号个 数)
• 则可以求出平均码长
• 则
8 1 1 1 8 1 1 4 1 1 2
1 × 1 + × + × + × =
= N
( )
8 7 4
log 1
4 7
log2 2 =
= × n N
x η H
8 1 8
1 7
1 − = − =
= η R
d
=
18 4 18
3 14
2 12
1
, , ,
, ,
,x x x X x