A prediction method and encoding method, distortion free viewpoint video depth map includes: for a given frame of multi view stereo video sequence given the viewpoint to fill a hole to block the synthesis of encoding, the encoding input has been completed, the texture block encoding mode pre trial code block, the corresponding depth map original texture map the original block and block depth map; input to merge the weight matrix encoding block, which marked by left and right view texture map combined with weight gain when the view synthesis texture; texture synthesis using pixel distortion calculation depth map in the block to complete the mapping, get empty hole fill after synthesis, will predict the as synthesized view the distortion of value; sum value distortion prediction will be encoding blocks of each pixel, the synthesized view to block encoding encoding distortion caused by the predictive value. This method can accurately predict the coding distortion of depth map block, and avoid the repeated execution of the synthesized view algorithm, which greatly reduces the computational complexity.
【技术实现步骤摘要】
自由视点视频深度图失真预测方法和编码方法
本专利技术涉及计算机视觉技术和视频编码领域,特别是涉及一种自由视点视频深度图失真预测方法和编码方法。
技术介绍
传统的3D视频系统只能为用户提供单一视点的左右眼视频,其视觉体验十分有限。而自由视点视频系统,则可以通过采集和传输有限视点的视频信息,在终端利用合成算法为用户提供任意视点的场景视频。因而自由视点视频系统能够极大地增强用户的视觉体验效果,具有广阔的发展前景。为了发展用于自由视点视频编码的技术,MPEG(MovingPicturesExpertsGroup)和VCEG(VideoCodingExpertsGroup)在联合视频项目HEVC(HighEfficiencyVideoCoding)的基础上,提出了拓展项目3D-HEVC。3D-HEVC中通过采集有限多个视点纹理视频及对应视点的深度图视频(表征场景中物体到相机间的距离)来表示3D场景信息,称为“多视点视频+深度图”格式。“多视点视频+深度图”数据通过编码压缩、传输、解码,在终端通过合成算法可以合成任意视点的视频,并投放给用户观看。在视点合成算法中,深度图数据表征的场景几何信息被用作将被编码视点的纹理像素映射到合成视点中,从而完成合成视点纹理的插值、空洞填补等处理。因此,解码后的深度图质量对合成视点的图像质量至关重要。在深度图编码过程中,采用率失真优化的方法来选择编码模式和参数,从而获得优化的深度图编码压缩性能。率失真优化问题是一个拉格朗日优化问题,即选择能够使D+λ·R最小的编码参数或编码模式;D表示不同编码参数或模式下,待编码深度图块经编码、解码及视 ...
【技术保护点】
一种自由视点视频深度图失真预测方法,其特征在于,所述方法包括:A1:对于多视点立体视频序列给定视点的给定帧的用作空洞填补合成的待编码图块,输入已完成编码的纹理图块T
【技术特征摘要】
1.一种自由视点视频深度图失真预测方法,其特征在于,所述方法包括:A1:对于多视点立体视频序列给定视点的给定帧的用作空洞填补合成的待编码图块,输入已完成编码的纹理图块Tc、采用预选的编码模式试编码的深度图块dc、相应原始纹理图块To及原始深度图块do;A2:输入所述待编码图块的合并权重矩阵W,合并权重矩阵W标记了分别利用左右视点纹理图获得合成视点纹理时的合并权重;A3:计算利用深度图块dc中的像素点dc,n完成映射、空洞填补合成后得到的合成纹理的失真Dvs,n,将所述失真Dvs,n作为像素点dc,n造成的合成视点失真的预测值;A4:将待编码图块各像素的失真预测值求和,得到编码所述待编码图块造成的合成视点失真预测值;所述步骤A3中,对于步骤A1获取的dc中的像素点dc,n及其相邻像素点dc,n+1,计算利用像素点dc,n及dc,n+1进行空洞填补的合成视点纹理失真预测值Dvs,n,计算方式如下,Dvs,n=(Dvs,n,basic+Dvs,nleft+Dvs,n,right)Wn2(4)其中,Dvs,n,basic为由于纹理失真造成的空洞填补合成纹理失真,Dvs,n,left为由于do,n编码为dc,n造成的空洞填补合成纹理失真,Dvs,n,left为由于do,n+1编码为dc,n+1造成的空洞填补合成纹理失真,do,n及do,n+1分别为dc,n及dc,n+1在原始深度图块中的对应像素,xo,n及xo,n+1为图块中深度图像素n及相邻像素n+1的对应纹理根据未编码的深度图块do,n映射到合成视点中的位置,xc,n及xc,n+1为待编码视点深度图像素n及相邻像素n+1的对应纹理根据试编码的深度图dc,n映射到合成视点中的位置,To...
【专利技术属性】
技术研发人员:金欣,李晨阳,戴琼海,
申请(专利权)人:清华大学深圳研究生院,
类型:发明
国别省市:广东,44
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。