本发明专利技术人脸图像匹配方法,涉及图像数据处理,是基于两次SURF和形状上下文的人脸图像匹配方法,利用SURF算法粗匹配得到尺度差和方向差信息,再利用这些信息进行SURF算法精确匹配,对得到的匹配结果用形状上下文算法去除误匹配,步骤是:确定人脸区域;生成重构的积分图像;两次SURF特征匹配;生成形状上下文描述子,去除误匹配,完成人脸图像匹配。本发明专利技术方法克服了现有的人脸图像匹配方法中存在特征点少、匹配点少且正确率不高的缺陷。
【技术实现步骤摘要】
本专利技术的技术方案涉及图像数据处理,具体地说是。
技术介绍
人脸图像匹配是图像匹配领域中的一个重要分支。随着自动化信息化时代的到 来,人脸图像匹配在现实生活中有了越来越多的应用。因为人脸信息具有独特性,难以伪造 且易于采集,广泛应用于门禁系统、视频监控和身份验证
现有的人脸图像匹配算法大都以提取人脸局部特征为基础,利用人脸局部特征进 行匹配。主成分分析法(以下简称PCA方法)是最为常用的人脸局部特征提取方法。1991 年,加利福尼亚大学的Turk等人利用PCA方法,提出了经典的"特征脸"人脸图像匹配算 法,并取得了较好的效果。但是PCA方法只考虑了图像数据的二阶统计信息,未能利用数据 中的高阶统计信息,忽略了多个像素间的非线性相关性。2004年,David Lowe提出了尺度 不变特征转换算法(以下简称SIFT算法),通过高斯微分函数来识别潜在的尺度和旋转不 变的关键点,通过一个拟合精细的模型来确定位置和尺度,利用图像局部的梯度方向,给每 个关键点位置分配一个或多个方向,实现了尺度和旋转的不变性,在每个关键点的邻域内, 对一定尺度的图像局部的梯度,具有一种SIFT表示,可以允许较大的局部变形和光照变 化。但是SIFT算法效率低且速度慢。2006年,瑞士的Bay等人提出了 Speeded Up Robust Feature算法(以下简称SURF算法)改进了 SIFT算法,利用Hessian矩阵行列式的极大值 检测特征点,用积分图像盒子滤波的方法简化D0H(即Hessian矩阵的行列式值)中卷积的 计算,大大提高了算法效率。但SURF算法仍然存在检测到的特征点少,得到的匹配对数目 也少的问题。 现有的由于采用了 PCA方法、SIF T算法或SURF算法进行特征 提取,存在特征点少、匹配点少且正确率不高的缺陷,尤其对有姿态、表情、光照变化的人脸 图像,特征点数目和正确率有待提高。因此,研究特征点多且正确率高的 具有重要的意义。
技术实现思路
本专利技术所要解决的技术问题是:提供,是基于两次SURF算法和 形状上下文的,简称TSURF+SC(Twice SURF+Shape Context),利用SURF 算法粗匹配得到尺度差和方向差信息,再利用这些信息进行SURF算法精确匹配,对得到的 匹配结果用形状上下文算法去除误匹配,克服了现有的中存在特征点 少、匹配点少且正确率不高的缺陷。 本专利技术解决该技术问题所采用的技术方案是:,是基于两次 SURF和形状上下文的,具体步骤如下: 第一步,确定人脸区域: 输入两幅同一个人的相同大小的人脸图像,将其中一幅有表情、姿态和光照变化 的图像作为待匹配图像,另一幅标准正面人脸图像作为模板图像,将待匹配图像和模板图 像均进行缩放至模板图像的1/8,然后用一个20X20像素大小的人脸检测搜索框自左向 右从上到下对上述两幅图像分别进行扫描,对每一个扫描到的子图像,用OpenCV自带的正 面人脸检测器判定其是否为人脸图像,若是,则标记为人脸区域,每次对上述两幅图像分别 扫描完一遍,将人脸检测搜索框放大10 %,再重新扫描一遍,如此重复,直到人脸检测搜索 框扩大到上述图像的一半大小时停止扫描,接着对所有被标记的人脸子图像从RGB转换到 YCrCb颜色空间,对其中的每一个像素点的Cr、Cb分量进行肤色验证,验证所用肤色条件如 公式⑴所示, 133 彡 Cr 彡 173 门 77 彡 Cb 彡 127 (1), 式中Cr、Cb分别代表YCrCb颜色空间中图像的色调和饱和度, 将上述扫描的图像中具有40%以上的像素点满足公式(1)的区域确定为人脸区 域,即感兴趣区域,再将待匹配图像和模板图像中确定的人脸区域放大8倍,恢复到原始尺 寸大小; 第二步,生成重构的积分图像: 对上述第一步中确定的人脸区域再转换到RGB空间,然后利用公式(2)转换为灰 度图像, X = 0. 299R+0. 587G+0. 114B (2), 上式中,R、G和B分别是RGB空间的红色、绿色和蓝色通道,X表示灰度图像中的 灰度值; 然后计算灰度图像中每个像素点的显著因子,得到显著因子图,如公式(3)所示, 〇 (Xc) = magnXarctan(V/Xc) (3), 上式中,magn为放大系数,〇 (X。)为人脸图像中的像素点的显著因子,V为人脸图 像中像素点X。与以像素点X。为中心的八邻域Xdi = 〇,…,7)的灰度差分,计算方法如公 式⑷所示, 将显著因子图左上角原点与该点所构成的矩形区域内所有点的像素值之和作为 积分图上该点的像素值,生成重构的积分图像,如公式(5)所示, 上式中IN(XJ为重构的积分图像中X。处的像素值,X c的坐标为(X,y),IN(X J的 值等于显著因子图中(〇,〇)点、(X,0)点、(〇,y)点与(X,y)点构成的矩形区域内所有像素 值的和; 第三步,两次SURF特征匹配: 匹配过程首先检测SURF特征并生成描述子,然后进行一次粗匹配得到尺度差和 方向差信息,最后再利用这些信息进行一次精确匹配,具体步骤如下: (1)生成SURF描述子: 用不同尺寸的盒子滤波模板与上述第二步得到的重构的积分图像求取显著因子 图的不同尺度的Hessian矩阵行列式响应图像,之后在这些响应图像上采用3D非极大值 抑制进行检测,将具有响应极大值的点确定为特征点,该特征点的尺度为相应响应图像的 尺度,设盒子滤波模板大小为LXL像素,初始尺寸L = 9像素,其对应的响应图像尺度s = 1. 2,然后依次使用L = 15像素、21像素、27像素的尺寸,分别对应的响应图像尺度s可由 公式(6)算出, s = 1. 2XL/9 (6), 得到特征点的位置和尺度s后,对每个特征点,在以特征点为中心,6s为半径的圆 形区域内对显著因子图用大小为4sX4s像素的Haar小波模板进行响应运算,这里s需四 舍五入为整数,然后用一个以特征点为中心,张角为η/3的扇形滑动窗口,围绕特征点以 步长0. 2弧度进行旋转,每转到一处,统计滑动窗口内图像Haar小波水平方向和垂直方向 响应值dx、dy的累加值Σ dx+ Σ dy,具有最大响应累加值的方向作为特征点的主方向,得 到主方向后,以特征点为中心沿主方向将20sX 20s像素大小的图像划分成4X4个子块,每 个子块利用大小为2sX2s像素的Haar模板进行响应值的计算,并对水平方向X和垂直方 向y的响应值分别统计其累加和及绝对值累加和Σ dx、Σ | dx |、Σ dy、Σ | dy |,形成特征矢 量,即SURF描述子,每个特征点共生成4X4X4 = 64维的SURF描述子; (2) SURF算法粗匹配: 对待匹配当前第1页1 2 3 4 本文档来自技高网...
【技术保护点】
人脸图像匹配方法,其特征在于:是基于两次SURF和形状上下文的人脸图像匹配方法,具体步骤如下:第一步,确定人脸区域:输入两幅同一个人的相同大小的人脸图像,将其中一幅有表情、姿态和光照变化的图像作为待匹配图像,另一幅标准正面人脸图像作为模板图像,将待匹配图像和模板图像均进行缩放至模板图像的1/8,然后用一个20×20像素大小的人脸检测搜索框自左向右从上到下对上述两幅图像分别进行扫描,对每一个扫描到的子图像,用OpenCV自带的正面人脸检测器判定其是否为人脸图像,若是,则标记为人脸区域,每次对上述两幅图像分别扫描完一遍,将人脸检测搜索框放大10%,再重新扫描一遍,如此重复,直到人脸检测搜索框扩大到上述图像的一半大小时停止扫描,接着对所有被标记的人脸子图像从RGB转换到YCrCb颜色空间,对其中的每一个像素点的Cr、Cb分量进行肤色验证,验证所用肤色条件如公式(1)所示,133≤Cr≤173∩77≤Cb≤127 (1),式中Cr、Cb分别代表YCrCb颜色空间中图像的色调和饱和度,将上述扫描的图像中具有40%以上的像素点满足公式(1)的区域确定为人脸区域,即感兴趣区域,再将待匹配图像和模板图像中确定的人脸区域放大8倍,恢复到原始尺寸大小;第二步,生成重构的积分图像:对上述第一步中确定的人脸区域再转换到RGB空间,然后利用公式(2)转换为灰度图像,X=0.299R+0.587G+0.114B (2),上式中,R、G和B分别是RGB空间的红色、绿色和蓝色通道,X表示灰度图像中的灰度值;然后计算灰度图像中每个像素点的显著因子,得到显著因子图,如公式(3)所示,σ(Xc)=magn×arctan(V/Xc) (3),上式中,magn为放大系数,σ(Xc)为人脸图像中的像素点的显著因子,V为人脸图像中像素点Xc与以像素点Xc为中心的八邻域Xi(i=0,…,7)的灰度差分,计算方法如公式(4)所示,V=Σi=07(Xi-Xc)---(4),]]>将显著因子图左上角原点与该点所构成的矩形区域内所有点的像素值之和作为积分图上该点的像素值,生成重构的积分图像,如公式(5)所示,IN(Xc)=Σi=0i≤xΣj=0j≤yσ(Xc)(i,j)---(5),]]>上式中IN(Xc)为重构的积分图像中Xc处的像素值,Xc的坐标为(x,y),IN(Xc)的值等于显著因子图中(0,0)点、(x,0)点、(0,y)点与(x,y)点构成的矩形区域内所有像素值的和;第三步,两次SURF特征匹配:匹配过程首先检测SURF特征并生成描述子,然后进行一次粗匹配得到尺度差和方向差信息,最后再利用这些信息进行一次精确匹配,具体步骤如下:(1)生成SURF描述子:用不同尺寸的盒子滤波模板与上述第二步得到的重构的积分图像求取显著因子图的不同尺度的Hessian矩阵行列式响应图像,之后在这些响应图像上采用3D非极大值抑制进行检测,将具有响应极大值的点确定为特征点,该特征点的尺度为相应响应图像的尺度,设盒子滤波模板大小为L×L像素,初始尺寸L=9像素,其对应的响应图像尺度s=1.2,然后依次使用L=15像素、21像素、27像素的尺寸,分别对应的响应图像尺度s可由公式(6)算出,s=1.2×L/9 (6),得到特征点的位置和尺度s后,对每个特征点,在以特征点为中心,6s为半径的圆形区域内对显著因子图用大小为4s×4s像素的Haar小波模板进行响应运算,这里s需四舍五入为整数,然后用一个以特征点为中心,张角为π/3的扇形滑动窗口,围绕特征点以步长0.2弧度进行旋转,每转到一处,统计滑动窗口内图像Haar小波水平方向和垂直方向响应值dx、dy的累加值∑dx+∑dy,具有最大响应累加值的方向作为特征点的主方向,得到主方向后,以特征点为中心沿主方向将20s×20s像素大小的图像划分成4×4个子块,每个子块利用大小为2s×2s像素的Haar模板进行响应值的计算,并对水平方向x和垂直方向y的响应值分别统计其累加和及绝对值累加和∑dx、∑|dx|、∑dy、∑|dy|,形成特征矢量,即SURF描述子,每个特征点共生成4×4×4=64维的SURF描述子;(2)SURF算法粗匹配:对待匹配图像中的每一个特征点,计算它与模板图像中所有特征点SURF描述子之间的欧氏距离,记录最近邻距离d1和次近邻距离d2,当d1/d2<th1且d1<th2时,将该点与其最近邻记录为一对匹配点,存入初始匹配集,由此完成SURF算法粗匹配,上述th1和th2为预先设定的阈值;(3)SURF算法精确匹配:计算并统计上述(2)步得到的初始匹配集中匹配点对之间的尺度差和角度差,这里所说的尺度为特征点的尺度,角度为特征点主方向,然后计算所有匹配点对尺度...
【技术特征摘要】
【专利技术属性】
技术研发人员:师硕,刘依,郭迎春,阎刚,于洋,翟艳东,杨志坚,
申请(专利权)人:河北工业大学,
类型:发明
国别省市:天津;12
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。