目录
一、实验框架
1.分析并实践DPCM压缩系统
2.掌握DPCM编解码系统原理,使用编程语言实现DPCM编码器。
二、DPCM编解码原理
DPCM函数(附)
三、DPCM编码系统设计
PSNR函数(附)
四:主要函数实现和量化效率分析
附具体分析
总结
DPCM+熵编码 和 仅熵编码 编码效率的比较
量化比特数对结果的影响
DPCM是差分预测编码调制的缩写,是比较典型的预测编码系统。在DPCM系统中,需要注意的是预测器的输入是已经解码以后的样本。之所以不用原始样本来做预测,是因为在解码端无法得到原始样本,只能得到存在误差的样本。因此,在DPCM编码器中实际内嵌了一个解码器,如编码器中虚线框中所示。
在一个DPCM系统中,有两个因素需要设计:预测器和量化器。理想情况下,预测器和量化器应 进行联合优化。实际中,采用一种次优的设计方法: 分别进行线性预测器和量化器的优化设计。
// 采用左向预测,且第一列误差值预设128
#include
#include
#define uchar unsigned char
using namespace std;
double Quant(int Qbit, int error)
{
double k = ((error + 255) / pow(2, 9 - Qbit));
return k;
}
double InverseQuant(int Qbit, uchar pred)
{
double k = (pred * pow(2, 9 - Qbit) - 255);
return k;
}
void DPCM(int h, int w, uchar* origin_buf, uchar* rebuild_buf, uchar* error_buf, int Qbit)
{
int error;
for(int i=0;i max)
error_buf[i] = max;
if (rebuild_buf[i] > 255)
rebuild_buf[i] = 255;
if (rebuild_buf[i] < 0)
rebuild_buf[i] = 0;
}
}
在本次实验中,我们采用固定预测器和均匀量化器。
在DPCM编码器实现的过程中可同时输出预测误差图像和重建图像。将预测误差图像写入文件并将该文件输入Huffman编码器,得到输出码流、给出概率分布图并计算压缩比。
将原始图像文件输入Huffman编码器,得到输出码流、给出概率分布图并计算压缩比。
最后比较两种系统(1.DPCM+熵编码和2.仅进行熵编码)之间的编码效率(压缩比和图像质量)。压缩质量以PSNR进行计算。
具体步骤:
double PSNR(int k, int w, uchar* origin_buf, uchar* rebuild_buf, int Qbit)
{
double mse = 0, PSNR = 0;
for (int i = 0; i < k * w; i++)
{
mse += pow((origin_buf[i] - rebuild_buf[i]), 2);
}
mse = mse / ((double)k * (double)w);
PSNR = 10 * log10(pow(255, 2) / mse);
cout << Qbit << "比特量化时的PSNR =" << PSNR << endl;
return PSNR;
}
#define _CRT_SECURE_NO_DEPRECATE
#include
#include
#include"header.h"
#define uchar unsigned char
using namespace std;
int main()
{
// 1.定义变量
FILE* originFile = NULL;
FILE* rebuildFile = NULL;
FILE* errorFile = NULL;
FILE* origintxt = NULL;
FILE* errortxt = NULL;
BITMAPINFOHEADER INFO_header;
int Qbit = 2;
// 2.打开文件
if (fopen_s(&originFile, "Lena256B.yuv", "rb") == 0) cout << "原文件打开成功" << endl;
if (fopen_s(&rebuildFile, "rebuildlena.yuv", "wb") == 0) cout << "重建文件创建成功" << endl;
if (fopen_s(&errorFile, "errorlena.yuv", "wb") == 0) cout << "预测误差文件创建成功" << endl;
if (fopen_s(&origintxt, "origin.txt", "wb") == 0) cout << "记录原图概率分布文件创建成功" << endl;
if (fopen_s(&errortxt, "error.txt", "wb") == 0) cout << "记录预测误差的概率分布的文件创建成功" << endl;
int height = 256;
int weight = 256;
// 3.打开缓冲
uchar* y_buffer = new uchar[weight * height];
uchar* u_buffer = new uchar[(weight * height) / 4];
uchar* v_buffer = new uchar[(weight * height) / 4];
uchar* rebuild_buf = new uchar [height * weight];
uchar* error_buf = new uchar[height * weight];
double* origin_prob = new double[256];
double* error_prob = new double[256];
// 4.读取文件
fread(y_buffer, sizeof(uchar), height * weight, originFile);
fread(u_buffer, sizeof(uchar), (weight * height) / 4, originFile);
fread(v_buffer, sizeof(uchar), (weight * height) / 4, originFile);
// 5.DPCM
DPCM(height, weight, y_buffer, rebuild_buf, error_buf,Qbit);
// 6.PSNR
PSNR(height, weight, y_buffer, rebuild_buf, Qbit);
// 7.分布概率统计
prob(height, weight, y_buffer, origin_prob);
prob(height, weight, error_buf, error_prob);
// 8.写入文件
fwrite(rebuild_buf, sizeof(uchar), height * weight, rebuildFile);
fwrite(u_buffer, sizeof(uchar), height * weight / 4, rebuildFile);
fwrite(v_buffer, sizeof(uchar), height * weight / 4, rebuildFile);
fwrite(error_buf, sizeof(uchar), height * weight, errorFile);
fwrite(u_buffer, sizeof(uchar), height * weight / 4, errorFile);
fwrite(v_buffer, sizeof(uchar), height * weight / 4, errorFile);
// 写入txt中
for (int i = 0; i < 256; i++)
{
fprintf(inputtxt, "%lf\n", *(origin_prob + i));
fprintf(errortxt, "%lf\n", *(error_prob + i));
}
// 9.关闭删除文件
fclose(originFile);
fclose(rebuildFile);
fclose(errorFile);
fclose(inputtxt);
fclose(errortxt);
delete[] y_buffer;
delete[] u_buffer;
delete[] v_buffer;
delete[] rebuild_buf;
delete[] error_buf;
delete[] origin_prob;
delete[] error_prob;
return 0;
}
预测误差(8,4,2bit下)
原图和重建图像(8,4,2bit下)
预测误差和其分布概率(原始图像)
(8bit)
(4bit)
DPCM+熵编码 和 仅熵编码 编码效率的比较
PSNR反映了图像的质量,PSNR越高,说明图像质量越好。从以上数据中可以看出,DPCM+熵编码系统的压缩比较高,PSNR比仅进行熵编码的图像要低。但在8bit量化的重建图像中,PSNR已经超过50dB,肉眼难以观察到明显的失真。
量化比特数对结果的影响
- 从以上数据可以看出,量化比特数越少,平均码长越低,压缩比越高,图像质量越差。从量化后重建图像也可以看出,除了8bit量化的情况,其他情况的重建图像都有明显失真(边缘忙乱、颗粒噪声等)。这是因为随着量化比特数减少,量化区间减少,量化误差会增大,图像的失真就会越明显。
- 在实际应用中应结合实际情况,对压缩比和图像质量有所取舍,采用折中的方案达到最优化结果。