一种改进的AdaBoost分类器构造方法技术

技术编号:4096430 阅读:474 留言:0更新日期:2012-04-11 18:40
本发明专利技术提供一种改进的AdaBoost分类器构造方法,属于图像检测技术领域。本发明专利技术首先将样本的类Haar特征值与其类别标签结合起来生成候选分类位置集,从候选分类位置集中寻找使分类错误最小的位置,基于此位置构造弱分类器,并同时提供一种自适应的弱分类器阈值构造方法。本发明专利技术较好地解决了AdaBoost分类器训练准备时间过长以及性能的提升问题,将其结合类Haar特征用于车辆图像检测实验,与传统AdaBoost分类器方法相比,明显减少了分类器的训练所需时间,同时还提升了其识别性能。

【技术实现步骤摘要】

本专利技术涉及,属于图像检测

技术介绍
在机器学习中,AdaBoost分类器与SVM (支持向量机,Support Vector Machines) 相比,在模式识别应用中具有识别精度高、实时性好的优点,因而在汽车辅助驾驶中障碍 物(如车辆、摩托车、行人)识别中取得了较好的应用效果,然而,AdaBoost分类器在应 用中的不足之处是训练过程远比SVM分类器耗时得多,妨碍了其在其他领域的应用推广。 AdaBoost (Adaptive Boosting)分类器构造方法是由Freund&Schapire提出的一种自适 应的Boost分类器构造方法,其主要原理是将所有待分类样本赋予相等的初始权值,在每 一轮选取弱分类器(比随机猜测略好)的训练中,选择对样本带权分类错误最小的特征与 阈值组合作为当前选取的弱分类器,并根据当前的弱分类器的分类效果对样本的权值进行 更新即分类错误的样本权值升高,而分类正确的样本权值降低。在反复进行多次迭代训 练后,可以使分类错误趋近于零,最后将这些弱分类器组合成强分类器。由此可以看出, AdaBoost分类器训练阶段大部分时间都消耗在寻找弱分类器上。传统的寻找弱分类器方法 是仅仅依据每个样本的类Haar特征值来寻找弱分类器,即首先对每个类Haar特征在训练 样本集上得到的特征向量采用穷举的方式得到相应的候选分类位置,然后从所有候选分类 位置中寻找分类错误最小的分类位置,再基于此位置构造弱分类器,因而导致AdaBoost分 类器训练过程计算量大、耗时长,此外,在构造弱分类器过程中,传统的阈值设置方法在反 映训练样本的分布规律方面仍有待进一步改善。
技术实现思路
本专利技术的所要解决的技术问题是针对现有AdaBoost构造方法训练过程中存在的 计算量大、耗时长以及弱分类器构造过程中传统阈值设置方法存在的问题,提出一种改进 的AdaBoost分类器构造方法。本专利技术为实现上述专利技术目的采用如下技术方案,包括步骤(1)、获取图像感兴趣区域;步骤(2)、计算积分图;步骤(3)、获得弱分类器;步骤(4)、将步骤(3)得到的弱分类器组合成强分类器;其特征在于所述步骤(3)中获得弱分类器的步骤为(3)- I、设所有类Haar特征在训练样本集S上得到的特征值集合为矩阵A本文档来自技高网
...

【技术保护点】
一种改进的AdaBoost分类器构造方法,包括:步骤(1)、获取图像感兴趣区域;步骤(2)、计算积分图;步骤(3)、获得弱分类器;步骤(4)、将步骤(3)得到的弱分类器组合成强分类器;其特征在于:所述步骤(3)中获得弱分类器的步骤为:(3)-Ⅰ、设所有类Haar特征在训练样本集S上得到的特征值集合为矩阵A:A=(***)其中n表示训练样本集中样本的个数,m代表一张归一化为32×32的灰度图中构造的类Haar特征的个数,a↓[11]表示第1个类Haar特征在第1个样本上的值;a↓[ij]表示第i个类Haar特征在第j个样本上的值,其中i∈{1,2,…,m},j∈{1,2,…,n},依此类推;(3)-Ⅱ、进行迭代训练;Ⅱ-1,采用基于计算积分图的方法求第i个类Haar特征在训练样本集S上的特征值,设对应的特征值构成的向量为Vec,样本x↓[j]的权值为w↓[j],类型为y↓[j],y↓[j]∈{-1,+1},其中1表示车,-1表示非车,Vec[j]的值为在样本x↓[j]上的特征值;Ⅱ-2,生成候选分类位置集:Ⅱ-2.1,对特征向量排序:将对应的特征值构成的向量Vec中的元素由小到大排序得到新的向量SortVec,设排完序后对应的类别标签向量变为Lab;Ⅱ-2.2,构造候选分类位置集:从左向右察看所有类别标签出现变化的位置对,判断所述出现变化的位置对所对应的特征值是否相同;若特征值不同,将所述位置对的第一个位置放入候选分类位置集中;若特征值相同,首先向左查找与所述相同特征值不同的第一个特征值,判断该特征值对应的位置是否已包含在候选分类位置集中,若该特征值对应的位置没有包含在候选分类位置集中,则将该特征值对应的位置加入候选分类位置集中;然后再向右查找与所述相同特征值不同的第一个特征值,断该特征值对应的位置是否已包含在候选分类位置集中,若该特征值对应的位置没有包含在候选分类位置集中,则将该特征值对应的位置加入候选分类位置集中;记得到的候选分类位置集为L={l↓[1],l↓[2],…,l↓[k′]},其中k′为候选分类位置的个数,每一个候选分类位置用特征值对{SortVec(j-1),SortVec(j)}来表示,记为l↓[i]′,i′=1,2,…,k′;Ⅱ-3,求最佳分类位置:从步骤Ⅱ-2.2得到的候选分类位置集L中选取一个使得分类错误最小的分类位置作为最佳分类位置τ,τ∈L;Ⅱ-4,设置分类阈值:Ⅱ-4.1,设当特征值...

【技术特征摘要】
一种改进的AdaBoost分类器构造方法,包括步骤(1)、获取图像感兴趣区域;步骤(2)、计算积分图;步骤(3)、获得弱分类器;步骤(4)、将步骤(3)得到的弱分类器组合成强分类器;其特征在于所述步骤(3)中获得弱分类器的步骤为(3) Ⅰ、设所有类Haar特征在训练样本集S上得到的特征值集合为矩阵A <mrow><mi>A</mi><mo>=</mo><mfenced open='(' close=')'> <mtable><mtr> <mtd><msub> <mi>a</mi> <mn>11</mn></msub> </mtd> <mtd><msub> <mi>a</mi> <mn>12</mn></msub> </mtd> <mtd><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mo>&CenterDot;</mo> </mtd> <mtd><msub> <mi>a</mi> <mrow><mn>1</mn><mi>j</mi> </mrow></msub> </mtd> <mtd><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mo>&CenterDot;</mo> </mtd> <mtd><msub> <mi>a</mi> <mrow><mn>1</mn><mi>n</mi> </mrow></msub> </mtd></mtr><mtr> <mtd><msub> <mi>a</mi> <mn>21</mn></msub> </mtd> <mtd><msub> <mi>a</mi> <mn>21</mn></msub> </mtd> <mtd><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mo>&CenterDot;</mo> </mtd> <mtd><msub> <mi>a</mi> <mrow><mn>2</mn><mi>j</mi> </mrow></msub> </mtd> <mtd><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mo>&CenterDot;</mo> </mtd> <mtd><msub> <mi>a</mi> <mrow><mn>2</mn><mi>n</mi> </mrow></msub> </mtd></mtr><mtr> <mtd><mo>&CenterDot;</mo> </mtd> <mtd><mo>&CenterDot;</mo> </mtd> <mtd> </mtd> <mtd><mo>&CenterDot;</mo> </mtd> <mtd> </mtd> <mtd><mo>&CenterDot;</mo> </mtd></mtr><mtr> <mtd><mo>&CenterDot;</mo> </mtd> <mtd><mo>&CenterDot;</mo> </mtd> <mtd> </mtd> <mtd><mo>&CenterDot;</mo> </mtd> <mtd> </mtd> <mtd><mo>&CenterDot;</mo> </mtd></mtr><mtr> <mtd><mo>&CenterDot;</mo> </mtd> <mtd><mo>&CenterDot;</mo> </mtd> <mtd> </mtd> <mtd><mo>&CenterDot;</mo> </mtd> <mtd> </mtd> <mtd><mo>&CenterDot;</mo> </mtd></mtr><mtr> <mtd><msub> <mi>a</mi> <mrow><mi>i</mi><mn>1</mn> </mrow></msub> </mtd> <mtd><msub> <mi>a</mi> <mrow><mi>i</mi><mn>2</mn> </mrow></msub> </mtd> <mtd><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mo>&CenterDot;</mo> </mtd> <mtd><msub> <mi>a</mi> <mi>ij</mi></msub> </mtd> <mtd><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mo>&CenterDot;</mo> </mtd> <mtd><msub> <mi>a</mi> <mi>in</mi></msub> </mtd></mtr><mtr> <mtd><mo>&CenterDot;</mo> </mtd> <mtd><mo>&CenterDot;</mo> </mtd> <mtd> </mtd> <mtd><mo>&CenterDot;</mo> </mtd> <mtd> </mtd> <mtd><mo>&CenterDot;</mo> </mtd></mtr><mtr> <mtd><mo>&CenterDot;</mo> </mtd> <mtd><mo>&CenterDot;</mo> </mtd> <mtd> </mtd> <mtd><mo>&CenterDot;</mo> </mtd> <mtd> </mtd> <mtd><mo>&CenterDot;</mo> </mtd></mtr><mtr> <mtd><mo>&CenterDot;</mo> </mtd> <mtd><mo>&CenterDot;</mo> </mtd> <mtd> </mtd> <mtd><mo>&CenterDot;</mo> </mtd> <mtd> </mtd> <mtd><mo>&CenterDot;</mo> </mtd></mtr><mtr> <mtd><msub> <mi>a</mi> <mrow><mi>m</mi><mn>1</mn> </mrow></msub> </mtd> <mtd><msub> <mi>a</mi> <mrow><mi>m</mi><mn>2</mn> </mrow></msub> </mtd> <mtd><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mo>&CenterDot;</mo> </mtd> <mtd><msub> <mi>a</mi> <mi>mj</mi></msub> </mtd> <mtd><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mo>&CenterDot;</mo> </mtd> <mtd><msub> <mi>a</mi> <mi>mn</mi></msub> </mtd></mtr> </mtable></mfenced> </mrow>其中n表示训练样本集中样本的个数,m代表一张归一化为32×32的灰度图中构造的类Haar特征的个数,a11表示第1个类Haar特征在第1个样本上的值;aij表示第i个类Haar特征在第j个样本上的值,其中i∈{1,2,…,m},j∈{1,2,…,n},依此类推;(3) Ⅱ、进行迭代训练;Ⅱ 1,采用基于计算积分图的方法求第i个类Haar特征在训练样本集S上的特征值,设对应的特征值构成的向量为Vec,样本xj的权值为wj,类型为yj,yj∈{ 1,+1},其中1表示车, 1表示非车,Vec[j]的值为在样本xj上的特征值;Ⅱ 2,生成候选分类位置集Ⅱ 2.1,对特征向量排序将对应的特征值构成的向量Vec中的元素由小到大排序得到新的向量SortVec,设排完序后对应的类别标签向量变为Lab;Ⅱ 2.2,构造候选分类位置集从左向右察看所有类别标签出现变化的位置对,判断所述出现变化的位置对所对应的特征值是否相同;若特征值不同,将所述位置对的第一个位置放入候选分类位置集中;若特征值相同,首先向左查找与所述相同特征值不同的第一个特征值,判断该特征值对应的位置是否已包含在候选分类位置集中,若该特征值对应的位置没有包含在候选分类位置集中,则将该特征值对应的位置加入候选分类位置集中;然后再向右查找与所述相同特征值不同的第一个特征值,断该特征值对应的位置是否已包含在候选分类位置集中,若该特征值对应的位置没有包含在候选分类位置集中,则将该特征值对应的位置加入候选分类位置集...

【专利技术属性】
技术研发人员:文学志郑钰辉方巍
申请(专利权)人:南京信息工程大学
类型:发明
国别省市:84[中国|南京]

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1