一种基于支持向量机的盲驾检测方法技术

技术编号:11369876 阅读:77 留言:0更新日期:2015-04-30 01:05
本发明专利技术公开了一种基于支持向量机的盲驾检测方法,本发明专利技术采用视频图像识别技术,监控驾驶员脸部几何关系的畸变特征,基于SVM(支持向量机)分类器判断是否处于低头状态,依据驾驶员处于低头状态时间的长短实时判断是否存在盲驾行为,具有监控准确度高,漏检误检少,受环境影响小,速度快,成本低等特点。

【技术实现步骤摘要】
一种基于支持向量机的盲驾检测方法
本专利技术涉及安全驾驶
,特别是盲驾检测

技术介绍
随着汽车保有量的快速增长,人们在享受到交通的便利和快捷的同时,也伴随着各类交通事故的频发,造成巨大的人员和经济损失。造成交通事故的因素很多,其中驾驶员低头玩弄手机或手持终端造成的“盲驾”是一个重要的诱发原因,因为它不像饮酒驾驶或者接打电话驾驶那样被交通法规明令禁止,因此它也是人们普遍忽视的因素,然而,它造成的危害远远超过饮酒驾驶或者接打电话驾驶,具体体现在当驾驶员玩手机时,一般都需要低头或者俯视,视线严重偏离正前方,失去了对路面情况和周边环境的有效观察,一旦遇到紧急情况或突发情况,将会大大削弱驾驶员的应变能力,极易造成交通事故。当车速在65km/h时,低头看手机2秒,相当于盲开36米,一旦遇到紧急情况,刹车至少需20米,用智能手机打开并阅读一条微博需要12秒的话,相当于汽车盲开约216米。另外,玩手机驾驶易导致错过交通信号或看不到公告栏和其他标志等。对于盲驾引起的交通事故,由于无法实时监控驾驶员的驾驶行为,一些客运和货运企业的监管部门只能以事后的推断作为划分责任的依据,无法进行事前的监控和预防。因此,实时监控驾驶员的盲驾行为,并及时反馈给运输企业监管部门,对于预防重大交通事故,有着重要的作用。支持向量机(SVM)是一种有监督学习算法,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,该方法是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度)和学习能力(即无错误地识别任意样本的能力)之间寻求最佳折中,以期获得最好的推广能力(或称泛化能力)。
技术实现思路
针对上述问题,本专利技术要解决的技术问题在于提供一种盲驾检测方法。具体技术方案如下:一种基于支持向量机的盲驾检测方法,包括以下步骤:11)检测开始前,加载现有的人脸检测分类器文件和主动表观模型的脸部模型,并基于支持向量机原理训练驾驶员低头俯视的人脸分类器文件;12)检测开始,实时采集驾驶员的头部图像,并变换成灰度图像;13)基于步骤11)加载的人脸检测分类器文件以及步骤12)所得到的灰度图像,判断当前帧中人脸是否存在,如是,则基于步骤11)加载的主动表观模型的脸部模型,准确定位驾驶员的脸部轮廓特征点;如否,则直接进入步骤14);14)如人脸不存在,则基于人脸消失的时间特征判断驾驶员是否处于盲驾状态;如人脸存在,则基于步骤11)训练得到的驾驶员低头俯视的人脸分类器文件以及步骤13)得到的驾驶员的脸部轮廓特征点,判断驾驶员是否长时间处于低头状态,如果是,则判断驾驶员处于盲驾状态;15)当驾驶员处于盲驾状态时,向驾驶员发出警报或向远程监控的服务器发送驾驶员处于盲驾状态时的实时视频。进一步,所述步骤12)按照公式[1],变换成灰度图像;f(x,y)=0.299r(x,y)+0.587g(x,y)+0.114b(x,y)[1]其中,是变换图像中像素(x,y)处的灰度值,r(x,y)、g(x,y)、b(x,y)是原图中像f(x,y)素(x,y)处的红、绿、蓝三通道的值。进一步,所述步骤13)包括以下步骤:31)获取人脸检测的有效区域,如上一帧没有得到正确的人脸位置,则人脸检测的有效区域为全图区域;如上一帧存在正确的人脸位置,则有效区域为在原有人脸矩形区域的基础上,向左右各扩展半个人脸的矩形宽度,向上下各扩展半个人脸的矩形高度,形成的人脸检测的有效区域;32)基于adaboost分类器,进行人脸检测;33)判断人脸是否存在,如果是,清空时间戳列表,进入步骤34),如果否,把当前帧时间戳放入时间戳列表,进入步骤14);34)基于人脸的“三庭五眼”的布局规律,按照公式[2]、公式[3],分别获取左、右眼睛的位置区域rect_left、rect_right,按照公式[4]获取嘴巴的位置区域rect_mouth;其中,rect_face是图像中的人脸位置区域;35)获取眼睛特征点,即找出左、右眼睛的内眼角点;36)获取嘴巴特征点,即找出嘴角点;37)初始化主动表观模型参数,具体做法为,以左、右内眼角点和嘴角点为基础,把主动表观模型的平均脸模型放在当前人脸位置,通过缩放平移旋转等运算操作,使得主动表观模型的左、右内眼角点、嘴角点与当前帧的相关特征点完全重合;38)获取人脸的最优轮廓特征点,具体方法为,通过多次迭代优化运算,获取主动表观模型的最优位置,此时主动表观模型上的特征点位置就是当前帧的最优人脸轮廓特征点位置。进一步,所述步骤35)具体包括以下步骤:41)获取左眼睛的内角点,先进行图像模糊处理,采用滤波模板式[5]进行中值滤波;42)基于改进的Laplace算子模板式[6],获取眼睛的边缘特征,基于最大类间距算法进行二值化处理;43)获取眼睛连通区域,具体做法为,先进行形态学闭运算,把相邻的边缘连接起来形成连通区域,然后去除面积较小的连通区域,选择最大面积的连通区域作为眼睛的候选连通区域,最后判断在候选连通区域的相近高度上是否存在其他的连通区域,如果是,则合并到候选连通区域内,形成最后的眼睛连通区域;44)获取连通区域的最右侧前景目标点,作为左眼睛的内角点位置;45)获取右眼角的内角点,参照步骤351)-353)进行,获取连通区域最左侧的前景目标点,作为右眼睛的内角点位置。进一步,所述步骤36)具体包括以下步骤:51)参照步骤351)和352),获取嘴巴的边缘特征;52)获取嘴巴的连通区域,具体方法为,先进行形态学闭运算,把相邻的边缘连接起来形成连通区域,选择最大面积的连通区域作为嘴巴连通区域;53)获取连通区域的最左侧和最右侧前景目标点,作为嘴巴的嘴角点。进一步,所述步骤14)包括以下步骤:61)判断当前帧中驾驶员人脸是否处于消失状态,具体方法为,依据时间戳列表中人脸消失的时间戳个数,如果时间戳个数大于0,则进入步骤62);否,则进入步骤63);62)按照公式[7],基于人脸消失的时间特征判断驾驶员是否处于盲驾状态,其中,exist=1说明驾驶员处于盲驾状态,timestampbegin是时间戳列表中人脸消失开始的时间戳,timestampend是时间戳列表中人脸消失结尾的时间戳,Tn是时间戳间隔阈值,表示驾驶员人脸严重偏离正前方的时间持续多久算是处于盲驾状态;63)判断当前帧中驾驶员是否处于低头状态;64)在单位时间T内,按照公式[9],统计驾驶员处于低头状态的帧数,按照公式[10],判断驾驶员是否处盲驾状态,其中,exist=1表示驾驶员处于盲驾状态,N是单位时间内的总帧数,N_R是单位时间内处于低头状态的帧数,r[i]=1表示驾驶员在第i帧是处于低头状态。进一步,所述步骤63)包括以下步骤:71)选择关键特征点,在脸部轮廓特征点中,选择2个眉毛中心特征点,2个内眼角特征点,2个颧骨特征点,2个下颚特征点,1个鼻子特征点,2个嘴角特征点,1个下巴特征点;72)对于每一个关键特征点,按照公式[8],计算剩下特征点和它之间的距离dis(i,j),按顺序放入向量v[i]中,并进行归一化处理;其中,point[i]是第i个关键特征点,point[j]是剩余的特征点;73)获取当前帧中,头部状态本文档来自技高网
...

【技术保护点】
一种基于支持向量机的盲驾检测方法,其特征在于,包括以下步骤:11)检测开始前,加载现有的人脸检测分类器文件和主动表观模型的脸部模型,并基于支持向量机原理训练驾驶员低头俯视的人脸分类器文件;12)检测开始,实时采集驾驶员的头部图像,并变换成灰度图像;13)基于步骤11)加载的人脸检测分类器文件以及步骤12)所得到的灰度图像,判断当前帧中人脸是否存在,如是,则基于步骤11)加载的主动表观模型的脸部模型,准确定位驾驶员的脸部轮廓特征点;如否,则直接进入步骤14);14)如人脸不存在,则基于人脸消失的时间特征判断驾驶员是否处于盲驾状态;如人脸存在,则基于步骤11)训练得到的驾驶员低头俯视的人脸分类器文件以及步骤13)得到的驾驶员的脸部轮廓特征点,判断驾驶员是否长时间处于低头状态,如果是,则判断驾驶员处于盲驾状态;15)当驾驶员处于盲驾状态时,向驾驶员发出警报或向远程监控的服务器发送驾驶员处于盲驾状态时的实时视频。

【技术特征摘要】
1.一种基于支持向量机的盲驾检测方法,其特征在于,包括以下步骤:11)检测开始前,加载现有的人脸检测分类器文件和主动表观模型的脸部模型,并基于支持向量机原理训练驾驶员低头俯视的人脸分类器文件;12)检测开始,实时采集驾驶员的头部图像,并变换成灰度图像;13)基于步骤11)加载的人脸检测分类器文件以及步骤12)所得到的灰度图像,判断当前帧中人脸是否存在,如是,则基于步骤11)加载的主动表观模型的脸部模型,准确定位驾驶员的脸部轮廓特征点;如否,则直接进入步骤14);14)如人脸不存在,则基于人脸消失的时间特征判断驾驶员是否处于盲驾状态;如人脸存在,则基于步骤11)训练得到的驾驶员低头俯视的人脸分类器文件以及步骤13)得到的驾驶员的脸部轮廓特征点,判断驾驶员是否长时间处于低头状态,如果是,则判断驾驶员处于盲驾状态;15)当驾驶员处于盲驾状态时,向驾驶员发出警报或向远程监控的服务器发送驾驶员处于盲驾状态时的实时视频;所述步骤13)包括以下步骤:31)获取人脸检测的有效区域,如上一帧没有得到正确的人脸位置,则人脸检测的有效区域为全图区域;如上一帧存在正确的人脸位置,则有效区域为在原有人脸矩形区域的基础上,向左右各扩展半个人脸的矩形宽度,向上下各扩展半个人脸的矩形高度,形成的人脸检测的有效区域;32)基于adaboost分类器,进行人脸检测;33)判断人脸是否存在,如果是,清空时间戳列表,进入步骤34),如果否,把当前帧时间戳放入时间戳列表,进入步骤14);34)基于人脸的“三庭五眼”的布局规律,按照公式[2]、公式[3],分别获取左、右眼睛的位置区域rect_left、rect_right,按照公式[4]获取嘴巴的位置区域rect_mouth;其中,rect_face是图像中的人脸位置区域;35)获取眼睛特征点,即找出左、右眼睛的内眼角点;36)获取嘴巴特征点,即找出嘴角点;37)初始化主动表观模型参数,具体做法为,以左、右内眼角点和嘴角点为基础,把主动表观模型的平均脸模型放在当前人脸位置,通过缩放平移旋转等运算操作,使得主动表观模型的左、右内眼角点、嘴角点与当前帧的相关特征点完全重合;38)获取人脸的最优轮廓特征点,具体方法为,通过多次迭代优化运算,获取主动表观模型的最优位置,此时主动表观模型上的特征点位置就是当前帧的最优人脸轮廓特征点位置;所述步骤35)具体包括以下步骤:41)获取左眼睛的内角点,先进行图像模糊处理,采用滤波模板式[5]进行中值滤波;42)基于改进的Laplace算子模板式[6],获取眼睛的边缘特征,基于最大类间距算法进行二值化处理;43)获取眼睛连通区域,具体做法为,先进行形态学闭运算,把相邻的边缘连接起来形成连通区域,然后去除面积较小的连通区域,选择最大面积的连通区域作为眼睛的候选连通区域,最后判断在候选连通区域的相近高度上是否存在其他的连通区域,如果是,则合并到候选连通区域内,形成最后...

【专利技术属性】
技术研发人员:张卡尼秀明何佳郭小东
申请(专利权)人:安徽清新互联信息科技有限公司
类型:发明
国别省市:安徽;34

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1