System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术属于图像压缩,具体涉及一种基于深度学习的跨平台的图像压缩方法及图像解压缩方法。
技术介绍
1、近年来,基于深度学习方法的图像压缩方案的发展为图像压缩领域提供了新的方向。随着研究的不断深入,基于深度学习的图像压缩已经逐渐超越传统图像压缩算法,在相同的压缩率上可以取得更高的图像质量。
2、尽管现有的基于深度学习的图像压缩方法压缩率相比传统方法所提升,但是由于其熵编码过程中需要编解码端的计算结果保持严格一致,而对应的运算过程又主要涉及浮点数运算,因此在编解码器在不同设备或平台上运行时,会面临浮点数运算结果不统一,进而影响解码器输出结果的情况。这也限制了相关技术在各领域的实际应用。
技术实现思路
1、鉴于以上存在的问题,本专利技术要解决的技术问题是提供一种基于深度学习的跨平台的图像压缩方法及图像解压缩方法。
2、为解决上述技术问题,本专利技术采用如下的技术方案:
3、本专利技术一方面提供一种基于深度学习的跨平台的图像压缩方法,包括训练过程和推理过程,进一步地训练过程包括训练数据预处理和模型训练,推理过程包括推理数据预处理和图像压缩,
4、s101,数据预处理过程将每张训练集图像分割成若干较小的训练集图像块;
5、s102,图像压缩网络的训练过程以训练集图像块作为输入,经过神经网络处理后,输出相应的重建训练集图像块;计算训练集图像块与重建训练集图像块的像素间的均方误差,作为失真损失;同时,计算神经网络内部图像特征和超先验特
6、s103,推理数据预处理将待压缩图像按从左到右从上到下的顺序,边缘相邻且不重叠地分割成若干个较小的图像块;每个图像块的大小与训练过程的图像块大小保持一致;
7、s104,图像压缩时,以一张待压缩的图像的所有图像块作为图像编码器及超先验编解码器的输入,输出相应的特征张量以及用于熵编码的概率估计结果,再将该张量与概率估计结果输入到相应的熵编码器中编码,得到用于存储与传输的压缩图像码流。
8、一种可能的实施方式中,所述s101具体包括:数据预处理阶段,将训练集中的图像x分割成若干相同大小的训练集图像块xi,训练集图像块的中心点由随机采样指定,采样时保证块的边界始终在训练集图像x的范围内,每张图像所选取的块的数量n与预设的训练周期数max_epoch保持一致;
9、对每张训练集图像都进行如上预处理后,数据预处理结束。
10、一种可能的实施方式中,所述s102具体包括:在图像压缩网络训练阶段,将数据预处理阶段得到的训练集图像块xi输入到未经训练的图像压缩网络中,在前向传播阶段,将图像块xi输入图像编码器获得其对应的特征yi,再将yi输入超先验编码器,获得超先验特征zi,zi首先输入到量化模块,将zi四舍五入为整数特征再输入到均值解码器和量化标准差解码器中,获得与yi大小相同的两个特征meansi和indexi,用于表示神经网络估计的yi中每个值的分布,其中,meansi代表神经网络估计的分布的均值,indexi代表估计的分布的标准差所对应的编号;
11、yi和meansi输入到量化模块,得到量化后的特征
12、
13、其中round表示四舍五入操作。随后,被输入到图像解码器中,获得重建的图像块
14、损失函数l包括失真损失ld和率损失lr,其中失真损失ld使用像素上的均方误差mse或多尺度结构一致性损失ms-ssim,具体来说:
15、
16、或
17、率损失lr用于约束码率,率损失lr一般使用标准差scalei和均值meansi来对y和z的码率进行估计,在训练过程中,将indexi转换为对应的标准差数值scalesi,以计算损失函数,indexi与scalesi的转换公式为:
18、
19、step=(log(scales_max)-log(scales_min))/(scales_levels-1)其中,scales_max、scales_min和scales_levels为预先设定的参数,分别代表了标准差的最大值、最小值以及编号的总数;indexi为整数,且其取值范围为[0,scales_levels–1];
20、最终的损失函数l的计算方法为:
21、l=ld+λlr,
22、其中,λ是用于调节两项损失之间权重的参数。
23、一种可能的实施方式中,所述s103具体包括:推理数据预处理阶段,将待压缩的图像x按从左到右从上到下的顺序,边缘相邻且不重叠地分割成若干个较小的图像块xi,每个图像块的大小与训练过程的图像块大小保持一致,根据图像块的大小以及待压缩图像的像素补充相应的边缘。
24、一种可能的实施方式中,所述s104具体包括:在图像压缩阶段,训练好的图像编码网络的输入是待压缩图像x分割出的全部图像块xi;待压缩图像块被图像编码器编码成特征yi,特征yi又被超先验编码器编码成zi;zi输入到量化模块,输出全整数的特征将输入到熵编码器中,获得第一段用于保存与传输的码流
25、同时也被输入到均值解码器和量化标准差解码器中,输出与yi的同形状的均值meansi与分布编号indexi,计算并将与编号indexi对应的累积分布输入到熵编码器,得到第二段用于保存与传输的码流
26、本专利技术又一方面提供一种图像解压缩方法,用于解压如上任一得到的压缩图像码流,包括图像解压:
27、以一串图像压缩过程输出的码流作为输入,利用熵解码器、均值解码器以及量化标准差解码器还原出相应的图像特征,再使用图像解码器将图像特征转换为解压后的图像块;将图像块按编码顺序拼接后,切除为了分块而填补的边缘后,即得到解码后的图像。
28、一种可能的实施方式中,图像解压具体包括:在图像解压阶段,将每个图像块的码流依次输入到熵解码器中,还原出特征再将输入到均值解码器和量化标准差解码器中,输出了与yi的同形状的均值meansi与编号indexi;利用标准差对应的累计分布,将码流解码回并通过得到特征将输入到图像解码器中,得到解压后的图像块后处理阶段首先将一张待压缩的图像的全部图像块按照原始顺序拼接,再按照输入时的像素大小,将多余的像素裁剪掉,从而得到解压后的图像
29、采用本专利技术具有如下的有益效果:提出了一个量化网络结构,可参与模型训练,并且在训练与推理中的运算过程始终一致。利用该量化网络结构,设计了使用量化标准差解码器的图像压缩方法,使得在不同平台或设备上执行编码端与解码端时,该量化网络的输出始终保持相同,进而可以实现跨平台的图像压缩。
本文档来自技高网...【技术保护点】
1.一种基于深度学习的跨平台的图像压缩方法,其特征在于,包括训练过程和推理过程,进一步地训练过程包括训练数据预处理和模型训练,推理过程包括推理数据预处理和图像压缩,
2.如权利要求1所述的基于深度学习的跨平台的图像压缩方法,其特征在于,所述S101具体包括:数据预处理阶段,将训练集中的图像x分割成若干相同大小的训练集图像块xi,训练集图像块的中心点由随机采样指定,采样时保证块的边界始终在训练集图像x的范围内,每张图像所选取的块的数量N与预设的训练周期数max_epoch保持一致;
3.如权利要求2所述的基于深度学习的跨平台的图像压缩方法,其特征在于,所述S102具体包括:在图像压缩网络训练阶段,将数据预处理阶段得到的训练集图像块xi输入到未经训练的图像压缩网络中,在前向传播阶段,将图像块xi输入图像编码器获得其对应的特征yi,再将yi输入超先验编码器,获得超先验特征zi,zi首先输入到量化模块,将zi四舍五入为整数特征再输入到均值解码器和量化标准差解码器中,获得与yi大小相同的两个特征meansi和indexi,用于表示神经网络估计的yi中每个值的分布,其
4.如权利要求1所述的基于深度学习的跨平台的图像压缩方法,其特征在于,所述S103具体包括:推理数据预处理阶段,将待压缩的图像X按从左到右从上到下的顺序,边缘相邻且不重叠地分割成若干个较小的图像块Xi,每个图像块的大小与训练过程的图像块大小保持一致,根据图像块的大小以及待压缩图像的像素补充相应的边缘。
5.如权利要求1所述的基于深度学习的跨平台的图像压缩方法,其特征在于,所述S104具体包括:在图像压缩阶段,训练好的图像编码网络的输入是待压缩图像X分割出的全部图像块Xi;待压缩图像块被图像编码器编码成特征Yi,特征Yi又被超先验编码器编码成Zi;Zi输入到量化模块,输出全整数的特征将输入到熵编码器中,获得第一段用于保存与传输的码流
6.一种图像解压缩方法,其特征在于,用于解压如上权利要求1至5任一得到的压缩图像码流,包括图像解压:
7.如权利要求6所述的图像解压缩方法,其特征在于,图像解压具体包括:在图像解压阶段,将每个图像块的码流依次输入到熵解码器中,还原出特征再将输入到均值解码器和量化标准差解码器中,输出了与Yi的同形状的均值meansi与编号indexi;利用标准差对应的累计分布,将码流解码回并通过得到特征将输入到图像解码器中,得到解压后的图像块后处理阶段首先将一张待压缩的图像的全部图像块按照原始顺序拼接,再按照输入时的像素大小,将多余的像素裁剪掉,从而得到解压后的图像
...【技术特征摘要】
1.一种基于深度学习的跨平台的图像压缩方法,其特征在于,包括训练过程和推理过程,进一步地训练过程包括训练数据预处理和模型训练,推理过程包括推理数据预处理和图像压缩,
2.如权利要求1所述的基于深度学习的跨平台的图像压缩方法,其特征在于,所述s101具体包括:数据预处理阶段,将训练集中的图像x分割成若干相同大小的训练集图像块xi,训练集图像块的中心点由随机采样指定,采样时保证块的边界始终在训练集图像x的范围内,每张图像所选取的块的数量n与预设的训练周期数max_epoch保持一致;
3.如权利要求2所述的基于深度学习的跨平台的图像压缩方法,其特征在于,所述s102具体包括:在图像压缩网络训练阶段,将数据预处理阶段得到的训练集图像块xi输入到未经训练的图像压缩网络中,在前向传播阶段,将图像块xi输入图像编码器获得其对应的特征yi,再将yi输入超先验编码器,获得超先验特征zi,zi首先输入到量化模块,将zi四舍五入为整数特征再输入到均值解码器和量化标准差解码器中,获得与yi大小相同的两个特征meansi和indexi,用于表示神经网络估计的yi中每个值的分布,其中,meansi代表神经网络估计的分布的均值,indexi代表估计的分布的标准差所对应的编号;
4.如权利要求1所述的基于深度学习的跨平台的图像压缩方法,其特征...
【专利技术属性】
技术研发人员:王昊然,陈梅丽,谢亚光,
申请(专利权)人:杭州当虹科技股份有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。