本发明专利技术涉及一种融合深度和灰度图像特征点的头姿估计兴趣点检测方法,包括:提取深度图像的特征点,提取灰度图像特征点,融合深度图像特征点与灰度图像特征点。本发明专利技术将基于深度图像检测到的特征点与基于灰度图像检测到的特征点相结合,形成一些定位准确、鲁棒性强的特征点,继承了深度与灰度图像的不同特征点检测的优势,能够最大程度地、快速地检测深度图像中表面变化大的特征点以及灰度图像中灰度值较大的瞳孔区域,尤其是提出了一种在深度图像中对计算所得的Haar-like特征值进行修正的计算模式,最终提取的特征具有一定的空间旋转不变性,在大角度旋转情形下也能逼近人脸特征点真值,提高了最终的特征点检测精度,缩短了检测时间。
【技术实现步骤摘要】
本专利技术涉及数字图像处理及计算机视觉
,具体涉及基于深度与灰度图像融合的头姿估计感兴趣点检测方法。
技术介绍
头姿估计是对人体行为进行分析的重要组成部分,它既可以作为结果用于体感游戏、驾驶员疲劳驾驶监视,也可以作为一个预处理过程提高身份认证、面部表情识别准确率。其中,利用头部感兴趣点来分析头姿是头姿估计方向的一个重要分支,并且特征点的准确、快速定位直接决定着头姿估计的精度与速度。然而,由于摄像头本身的分辨率、背景环境的复杂度、光照变化以及肤色等因素的影响,准确快速地检测特征点成为一项极具挑战性的工作。截至目前,已经有很多种特征点检测的方法被提出。按照特征点检测所依赖的样本进行分类,可分为基于灰度图像的方法和基于深度图像的方法两种。经典的基于灰度图像的方法包括基于投影的眼睛定位方法、基于hough变换的瞳孔定位方法、基于颜色直方图统计方法以及基于模糊C均值的嘴唇分割方法等局部特征点定位方法,以及主动形状模型(ASM)、主动表观模型(AAM)等全局特征点定位方法。此外,一些基于分类学习方法,如人工神经网络、PCA以及SVM等也可用于特征点的筛选定位。基于深度图像的主流特征点定位算法有基于距离统计、高斯曲率计算、形状标签法等方法,用于定位鼻尖、鼻鞍等几何形状突出的特征点。虽然上述这些方法在一些样本中取得了不错的特征点检测效果,但是由于两种数据所固有缺点(灰度图像很容易受到光照变化、复杂背景以及遮挡等的影响,而深度图像对噪声特别敏感),很难只依赖其中一种数据进行训练而完成准确、快速、泛化能力强的特征点检测,故亟需提出更加鲁棒的特征点检测算法以改善头姿估计效果。
技术实现思路
本专利技术的目的在于提供一种基于深度与灰度图像融合的头姿估计感兴趣点检测方法,将基于深度图像检测到的特征点与基于灰度图像检测到的特征点相结合,最终形成一些定位准确、鲁棒性强的特征点,有效解决现有算法中存在的特征点检测结果不准确、鲁棒性差等造成因误差累计头姿估计准确率低的问题。为了实现上述目的,本专利技术采用以下技术方案:基于人脸深度图像各点与邻域点之间的深度差异性,利用所定义的深度Harr特征模板对所获取的人脸深度图像进行特征提取,然后利用Adaboost算法训练级联分类器,筛选出鼻尖、鼻鞍、左右耳垂等特征点;基于人脸灰度图像中眼睛与周围相邻区域灰度值的差异,对其提取Haar-like特征,然后利用Adaboost算法训练级联分类器,筛选出特征点眼睛。最后将人脸深度图像与灰度图像对齐,即可完成对人脸左右眼睛、鼻尖、鼻鞍、左右耳垂等特征点的检测。一种基于深度与灰度图像融合的头姿估计感兴趣点检测方法,包括以下步骤:步骤1,提取深度图像特征点。步骤1.1,输入人脸深度图像。步骤1.2,手工标定鼻尖、鼻鞍以及耳垂等特征点的训练样本。步骤1.3,计算已标定样本的深度Harr-like特征。步骤1.4,训练Adaboost分类器。步骤2,提取灰度图像特征点。步骤2.1,输入人脸灰度图像。步骤2.2,标定瞳孔中心。步骤2.3,计算已标定样本的Harr-like特征。步骤2.4,训练Adaboost分类器。步骤3,集成深度图像与灰度图像所提取的特征点。步骤3.1,利用训练好的2个Adaboost分类器分别对输入的人脸深度图像和灰度图像进行特征点检测。步骤3.2,对齐深度图像与灰度图像,确定左右眼睛、鼻尖、鼻鞍、左右耳垂等感兴趣点。与现有技术相比,本专利技术具有以下明显优势:本专利技术利用头部感兴趣点所具有的深度数据分布特性,提出一种在深度图像中对计算所得的Haar-like特征值进行修正的计算模式,实现特征点的检测,充分继承了深度与灰度图像的不同特征点检测的优势,即深度图像不受光照变化以及复杂背景的影响,而灰度图像便于瞳孔检测,最大程度地、快速地检测到深度图像中表面变化大的特征点以及灰度图像中灰度分布特征显著的瞳孔区域,尤其是提取的特征具有一定的空间旋转不变性,在大角度旋转情形下也能逼近人脸特征点真值,提高了最终的特征点检测精度,缩短了检测时间。附图说明图1为本专利技术所涉及方法的流程图;图2为本专利技术对深度图像进行特征提取的模板示意图;图3为本专利技术进行特征点标定以后的深度图像正、反训练样本图;图4为本专利技术进行特征点标定以后的灰度图像正、反训练样本图。具体实施方式以下结合具体实施例,并参照附图,对本专利技术进一步详细说明。本专利技术所用到的硬件设备包括Kinect for Windows(微软体感摄像头)1台、PC机1台,其中Kinect for Windows用来采集人脸深度数据以及彩色图像,PC机用来处理数据并完成感兴趣点的检测。本专利技术所述方法的流程图如图1所示,具体包括以下步骤:步骤1,提取深度图像的特征点。步骤1.1,输入人脸深度图像。所述深度图像为单通道图像,是从深度摄像机采集的面部深度数据转变而来,具体过程如附图3所示。对于一张人脸深度数据,首先计算这些深度数据的最大值、最小值以及均值,然后将它们归一化并放大到0~255,最大深度公式、最小深度公式以及平均深度公式及深度数据归一化公式如下:maxDepthValue=Max(depth(pixel(i))) (1)minDepthValue=Min(depth(pixel(i))) (2)averageDepth=1nΣi=1ndepth(pixel(i))---(3)]]>pixelValue=pixelDepth-minPixelDepthmaxPixelDepth-minPixelDepth×255---(4)]]>其中,i=1,2,3,...,n,n为所有有效像素的数量;depth(pixel(i))为深度数据中第i个像素处的深度值,pixelDepth为深度数据转化为可视深度图像后的对应的灰度值。这样便将全部深度数据转化为三个深度值和一幅深度图像。对于场景中的待检测对象,首先使用深度阈值分割法将人体从场景中分割出来,然后将头部从人体图像中分割出来,比如,微软的KinectSDK包中骨架模型检测出人体头部基本位置,进而利用人体结构的相关先验知识将头部所在的矩形区域分割出来。由于得到的头部原始数据为一些以毫米为单位的深度值,为了便于对这些数据进行特征点标定,利用公式(4)将这些数据进行变换,将原始深度数据转化为一个单通道的图像。显然,距离摄像机平面最近的那些点灰度值最高,用纯白色表示。步骤1.2,手工标定鼻尖、鼻鞍以及耳垂等特本文档来自技高网...
【技术保护点】
融合深度和灰度图像特征点的头姿估计兴趣点检测方法,其特征在于:提出一种在深度图像中对计算所得的Haar?like特征值进行修正的计算模式;将基于深度图像检测到的特征点与基于灰度图像检测到的特征点相结合,解决现有算法中存在的特征点检测结果不准确、鲁棒性差、速度慢以及泛化能力弱的问题;所述方法包括以下步骤:步骤1,提取深度图像的特征点;步骤1.1,输入人脸深度图像;所述深度图像为单通道图像,是从深度摄像机采集的人脸深度数据转变而来;对于一张人脸深度数据,首先计算深度数据的最大值、最小值以及均值,然后将深度数据归一化并放大到0~255,将全部深度数据转化为三个深度值和一幅深度图像;最大深度公式、最小深度公式以及平均深度公式及深度数据归一化公式如下:maxDepthValue=Max(depth(pixel(i)))minDepthValue=Min(depth(pixel(i)))averageDepth=1nΣi=1ndepth(pixel(i))]]>pixelValue=pixelDepth-minPixelDepthmaxPixelDepth-minPixelDepth×255]]>其中,i=1,2,3,...,n,n为所有有效像素的数量;depth(pixel(i))为深度数据中第i个像素处的深度值,pixelDepth为深度数据转化为可视深度图像后的对应的灰度值;步骤1.2,手工标定鼻尖、鼻鞍以及耳垂特征点;对于步骤1.1得到的深度图像,标定出鼻尖、鼻鞍以及左右耳垂这些特征点,然后以每个特征点为中心进行图像切割,得到固定大小的特征点正例样本,样本大小一般取24*24;选择不同人、不同距离以及不同角度下的头部特征点进行标定,将大量的标定样本构成正训练样本;同时,选择大量的非待检测特征点样本作为负训练样本;负训练样本中的感兴趣特征点不位于样本几何中心;步骤1.3,计算已标定样本的深度Harr?like特征;使用6种不同模板类型分别对已标定的深度图像进行特征提取,获取每类图像中的所有特征;特征值计算公式为:其中,value为特征值,n表示模板中黑色矩形框的个数,θ表示模板区域源图像沿x轴的旋转角度,表示模板区域源图像沿y轴的旋转角度;对于灰度图像,θ与均取0;对于深度图像,不同类型的模板,θ和的值也不同,分别等于模板沿横轴和纵轴两端区域像素和之差的绝对值与两端之间表示的实际距离之比的反正切值;步骤1.4,训练Adaboost分类器;对于步骤1.3中得到的特征,训练一系列弱分类器,然后按照权重级联为一个强分类器;步骤2,提取灰度图像特征点;步骤2.1,输入人脸灰度图像;所述的灰度图像为单通道图像,这里的灰度图像可以由彩色图像转变而来,也可以直接选择彩色图像的任一通道,其中每个像素点取值范围为0?255;步骤2.2,标定瞳孔中心;对于步骤2.1得到的灰度图像,标定出瞳孔的中心位置,然后按照与步骤1.2相同的方法进行正负训练样本的制作;步骤2.3,计算已标定样本的深度Harr?like特征;利用前述6种模板类型对步骤2.2的正负样本进行Haar?like特征提取;步骤2.4,训练Adaboost分类器;方法与步骤1.4相同;步骤3,集成深度图像与灰度图像所提取的特征点;步骤3.1,利用训练好的2个Adaboost分类器分别对输入的人脸深度图像和灰度图像进行特征点检测;输入2张同一时刻采集的深度图像和灰度图像,分别提取特征并利用Adaboost进行分类,然后利用K?近邻聚类算法进行聚类,聚类中心即为检测到的头姿估计兴趣点;步骤3.2,对齐深度图像与灰度图像,确定左右眼睛、鼻尖、鼻鞍、左右耳垂感兴趣点。...
【技术特征摘要】
1.融合深度和灰度图像特征点的头姿估计兴趣点检测方法,其特征在于:提出一种在深
度图像中对计算所得的Haar-like特征值进行修正的计算模式;将基于深度图像检测到的特征
点与基于灰度图像检测到的特征点相结合,解决现有算法中存在的特征点检测结果不准确、
鲁棒性差、速度慢以及泛化能力弱的问题;所述方法包括以下步骤:
步骤1,提取深度图像的特征点;
步骤1.1,输入人脸深度图像;
所述深度图像为单通道图像,是从深度摄像机采集的人脸深度数据转变而来;对于一张
人脸深度数据,首先计算深度数据的最大值、最小值以及均值,然后将深度数据归一化并放
大到0~255,将全部深度数据转化为三个深度值和一幅深度图像;最大深度公式、最小深度
公式以及平均深度公式及深度数据归一化公式如下:
maxDepthValue=Max(depth(pixel(i)))
minDepthValue=Min(depth(pixel(i)))
averageDepth=1nΣi=1ndepth(pixel(i))]]>pixelValue=pixelDepth-minPixelDepthmaxPixelDepth-minPixelDepth×255]]>其中,i=1,2,3,...,n,n为所有有效像素的数量;depth(pixel(i))为深度数据中第i个像素
处的深度值,pixelDepth为深度数据转化为可视深度图像后的对应的灰度值;
步骤1.2,手工标定鼻尖、鼻鞍以及耳垂特征点;
对于步骤1.1得到的深度图像,标定出鼻尖、鼻鞍以及左右耳垂这些特征点,然后以每
个特征点为中心进行图像切割,得到固定大小的特征点正例样本,样本大小一般取24*24;
选择不同人、不同距离以及不同角度下的头部特征点进行标定,将大量的标定样本构成正训
练样本;同时,选择大量的非待检测特征点样本作为负训练样本;负训练样本中的感兴...
【专利技术属性】
技术研发人员:贾熹滨,王润元,
申请(专利权)人:北京工业大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。