当前位置: 首页 > 专利查询>天津大学专利>正文

一种基于区域自适应模型的深度视频码率控制方法技术

技术编号:15654381 阅读:279 留言:0更新日期:2017-06-17 10:52
本发明专利技术公开了一种基于区域自适应模型的深度视频码率控制方法,所述控制方法包括以下步骤:将深度视频的区域划分为对绘制虚拟视点影响较大的区域IBV,其余的区域为对绘制虚拟视点影响较小的区域NIBV;其中,区域IBV为:物体的边界和剧烈运动的区域;建立基于区域IBV和区域NIBV的R‑λ模型;计算R‑λ模型的初始参数;基于区域R‑λ模型的码率控制方法确定区域IBV和区域NIBV最优的比特分配,并求解最优比特分配。本发明专利技术提高了深度视频码率控制的准确性以及绘制虚拟视点的主观质量和客观质量,提升了深度视频的编码效率。

【技术实现步骤摘要】
一种基于区域自适应模型的深度视频码率控制方法
本专利技术涉及3D视频编码领域,尤其涉及一种基于区域自适应模型的深度视频码率控制方法。
技术介绍
码率控制在通过信道传输高质量3D视频的过程中扮演着重要角色。码率控制的基本原理是按照一定的编码策略动态地调整编码器的编码参数,通过各个层次上的码率优化分配,最终调节编码器在单位时间内输出的比特数,使得实际输出码率与目标码率一致。针对码率控制已经有较多的研究,各个视频编码标准均制定了相应的码率控制算法模型,针对不同的应用及标准,对应使用不同的码率控制算法与模型。除了集成在视频编码标准中的方法,研究者还提出了许多其他的码率控制模型,主要可以分成三类:在码率R和量化参数Q之间建立联系的Q-domain码率控制技术、在码率R和量化后的零系数的比例ρ之间建立联系的ρ-domain码率控制技术、以及在码率R和拉格朗日乘子λ之间建立关系的λ-domain码率控制技术。Ma等[1]针对H.264/AVC提出了一种线性的R-Q(Rate-Quantitation)模型,并且利用该模型提出了一种使部分编码块编码两次的码率控制算法。Kamaci等[2]提出了一种基于柯西分布的统计的R-Q模型,并且针对H.264/AVC提出了一种新的比特分配方案。Lee等[3]提出了将不同编码单元(CodingUnit,CU)分成纹理区域和非纹理区域,用拉普拉斯模型分别对纹理区和非纹理区建立R-Q的模型。这些算法都是建立在R-Q模型的基础上,R-Q模型本身存在蛋鸡悖论,并且随着编码复杂度的增加,R和Q之间不存在一一对应的关系。He等[4]针对H.264/AVC提出了一种ρ域的码率控制方法,此方法只适用于固定CU块。Gao等[5]研究了码率和量化后的非零系数之间的线性关系,并且针对HEVC提出了一种新的帧级比特分配方案。Li等[6]将人的面部区域进行分层,为每一层提供不同的权重,实现了一种加权的λ域码率控制方法。Guo等[7]将基于R-λ模型的码率控制方法运用到屏幕内容编码中,并依据屏幕内容编码的特性改进了算法的比特分配阶段。然而,现有的码率控制模型大多是针对彩色视频构建的。随着3D显示技术、场景重现和视点合成技术的发展,深度视频在3D视频中的重要作用逐渐被人们发掘。在3D视频中,深度视频是对象在3D场景中的几何表示。不同于彩色图像,深度图是由大量的平滑区域和尖锐的边界所构成,若直接将传统的彩色视频码率控制算法直接应用到深度视频上,必然会造成深度视频编码效率的下降,因此需要对深度视频编码的比特分配及码率控制技术进行研究。
技术实现思路
本专利技术针对现有的码率控制模型大多是针对彩色视频构建的现状,提出针对深度视频的基于区域自适应模型的深度视频码率控制方法,以提高深度视频的编码效率,详见下文描述:一种基于区域自适应模型的深度视频码率控制方法,所述控制方法包括以下步骤:将深度视频的区域划分为对绘制虚拟视点影响较大的区域IBV,其余的区域为对绘制虚拟视点影响较小的区域NIBV;其中,区域IBV为:物体的边界和剧烈运动的区域,建立基于区域IBV和区域NIBV的R-λ模型;计算R-λ模型的初始参数;基于区域R-λ模型的码率控制方法确定区域IBV和区域NIBV最优的比特分配,并求解最优比特分配。所述基于区域IBV和区域NIBV的R-λ模型具体为:其中,j∈{IBV,NIBV},aj和bj是模型参数,Rj是j的平均比特,λj是j的拉格朗日乘子。所述基于区域R-λ模型的码率控制方法确定区域IBV和区域NIBV最优的比特分配的步骤具体为:通过拉格朗日乘数法将限制条件下求极值的问题映射到等价的无约束条件的求极值问题,可得:minJ=A·exp(βIBVRIBV)+B·exp(βNIBVRNIBV)+C+λ·(RIBV·NIBV+RNIBV·NNIBV-RT)其中,J为目标函数;λ为拉格朗日乘子;RT为一帧图片的目标比特;A、B、C、βIBV和βNIBV是模型参数,NIBV和NNIBV表示一帧中IBV和NIBV的8×8块的数目,RIBV和RNIBV表示IBV和NIBV的比特率。所述求解最优比特分配具体为:λw=γ·λR+(1-γ)·λo其中,δ为一个LCU中IBV所占的比重;λo为通过传统R-λ模型计算得到的拉格朗日乘子;γ为参数;λw为加权的拉格朗日乘子;λR为LCU拉格朗日乘子。本专利技术提供的技术方案的有益效果是:本专利技术将深度图的区域特性结合到码率控制算法中,建立了深度视频区域间最优的比特分配方案、以及区域自适应R-λ码率控制模型,提高了深度视频码率控制的准确性以及绘制虚拟视点的主观质量和客观质量,提升了深度视频的编码效率。附图说明图1为"Ballet"视频序列区域划分结果的示意图;(a)为原始深度视频的非关键帧;(b)为非关键帧的划分结果;(c)为原始深度中关键帧;(d)为关键帧的划分结果。图2为一种基于区域自适应模型的深度视频码率控制方法的流程图。具体实施方式为使本专利技术的目的、技术方案和优点更加清楚,下面对本专利技术实施方式作进一步地详细描述。实施例1为了克服现有技术的不足,准确的实现深度视频的码率控制算法,提高绘制的虚拟视点的质量,本专利技术实施例提出了基于区域自适应模型的深度视频码率控制方法,具体的技术方案分为下列步骤:101:将深度视频的区域划分为对绘制虚拟视点影响较大的区域IBV,其余的区域为对绘制虚拟视点影响较小的区域NIBV;其中,区域IBV为:物体的边界和剧烈运动的区域,102:建立基于区域IBV和区域NIBV的R-λ模型;计算R-λ模型的初始参数;103:基于区域R-λ模型的码率控制方法确定区域IBV和区域NIBV最优的比特分配,并求解最优比特分配。其中,步骤102中的基于区域IBV和区域NIBV的R-λ模型具体为:其中,j∈{IBV,NIBV},aj和bj是模型参数,Rj是j的平均比特,λj是j的拉格朗日乘子。其中,步骤103中的基于区域R-λ模型的码率控制方法确定区域IBV和区域NIBV最优的比特分配的步骤具体为:通过拉格朗日乘数法将限制条件下求极值的问题映射到等价的无约束条件的求极值问题,可得:minJ=A·exp(βIBVRIBV)+B·exp(βNIBVRNIBV)+C+λ·(RIBV·NIBV+RNIBV·NNIBV-RT)其中,J为目标函数;λ为拉格朗日乘子;RT为一帧图片的目标比特;A、B、C、βIBV和βNIBV是模型参数,NIBV和NNIBV表示一帧中IBV和NIBV的8×8块的数目,RIBV和RNIBV表示IBV和NIBV的比特率。其中,步骤103中的求解最优比特分配具体为:λw=γ·λR+(1-γ)·λo其中,δ为一个LCU中IBV所占的比重;λo为通过传统R-λ模型计算得到的拉格朗日乘子;γ为参数;λw为加权的拉格朗日乘子;λR为LCU拉格朗日乘子。综上所述,本专利技术实施例通过上述步骤101-步骤103建立了深度视频区域间最优的比特分配方案和区域自适应R-λ码率控制模型,提高了深度视频码率控制的准确性以及绘制虚拟视点的主观质量和客观质量,提升了深度视频的编码效率。实施例2下面结合具体的计算公式、实例对实施例1中的方案进行详细介绍,详见下文描述:201:深度视频的区域划分;深度图中物体本文档来自技高网
...
一种基于区域自适应模型的深度视频码率控制方法

【技术保护点】
一种基于区域自适应模型的深度视频码率控制方法,其特征在于,所述控制方法包括以下步骤:将深度视频的区域划分为对绘制虚拟视点影响较大的区域IBV,其余的区域为对绘制虚拟视点影响较小的区域NIBV;其中,区域IBV为:物体的边界和剧烈运动的区域;建立基于区域IBV和区域NIBV的R‑λ模型;计算R‑λ模型的初始参数;基于区域R‑λ模型的码率控制方法确定区域IBV和区域NIBV最优的比特分配,并求解最优比特分配。

【技术特征摘要】
1.一种基于区域自适应模型的深度视频码率控制方法,其特征在于,所述控制方法包括以下步骤:将深度视频的区域划分为对绘制虚拟视点影响较大的区域IBV,其余的区域为对绘制虚拟视点影响较小的区域NIBV;其中,区域IBV为:物体的边界和剧烈运动的区域;建立基于区域IBV和区域NIBV的R-λ模型;计算R-λ模型的初始参数;基于区域R-λ模型的码率控制方法确定区域IBV和区域NIBV最优的比特分配,并求解最优比特分配。2.根据权利要求1所述的一种基于区域自适应模型的深度视频码率控制方法,其特征在于,所述基于区域IBV和区域NIBV的R-λ模型具体为:其中,j∈{IBV,NIBV},aj和bj是模型参数,Rj是j的平均比特,λj是j的拉格朗日乘子。3.根据权利要求1所述的一种基于区域自适应模型的深度视频码率控制方法,其特征在于,所述基于区域R-λ模型...

【专利技术属性】
技术研发人员:雷建军贺小旭元辉何景逸孙振燕侯春萍
申请(专利权)人:天津大学
类型:发明
国别省市:天津,12

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1