【技术实现步骤摘要】
本专利技术涉及机器学习领域,具体涉及一种基于总间隔的模糊V-相对间隔学习机算法。
技术介绍
基于统计学习理论和大间隔思想的支持向量机(SVM)[1]及其相关变体是目前实现模式分类的主流方法之一,其通过最大化类间间隔来达到强泛化能力。目前,SVMs在机器学习和模式识别领域得到了广泛而成功地应用气V-支持向量分类机(v-SVM)[3]是SVM的一个扩展变体。Sch01kopf等人[3]引入一个新的参数V来控制支持向量数下界和训练误差上界,该参数能取代SVM中的参数C。尽管SVMs方法具有较多明显优势,但也存在一些问题[4]。针对SVM易出现过拟合问题,Wang等人M提出模糊SVM (FSVM),其基本思想是根据样本在它所在类别中的相关性,给每个样本分配不同的隶属度值,使那些相关度较小的样本得到的惩罚也相应较轻。当非均衡样本集中的负样本的个数远远小于正样本的个数时,SVM会发生类边界倾斜现象,从而使SVM在非均衡数据集中的应用受到了限制,为了自适应非均衡的训练集,引文[5]采用不同代价算法,从而降低了虚警率,提高了识别的准确率。最近,针对SVM对数据仿射或伸缩变化敏感问题,Shivaswamy等人[6]从概率和仿射不变性的角度提出一种数据依赖(data-dependent)正则化相对间隔学习机(RMM)(为了区别,本文称大间隔方法(SVM)中的间隔为绝对间隔)。RMM通过最大化类间间隔的同时最小化类内模式分布散度来实现二类最大分割,其类间分割间隔度量是基于相对于类内数据分布最小化的相对间隔观。从理论和实验两个方面进行分析证实,RMM具有优于大间隔方法(SVM) ...
【技术保护点】
基于总间隔的模糊v?相对间隔学习机算法,其特征在于包含以下步骤:步骤一:在传统的相对间隔学习机(RMM)中融合FSVM和TM?SVM方法,对这些方法进行集成和扩展;步骤二:训练样本根据它们相关度的不同而采用不同的处理方式,对每个训练数据赋予一个相对重要程度的隶属度值,指示数据点对所属类的重要度,数据点的重要度与隶属度值成正比;步骤三:通过引入参数v,可控制间隔误差的上界和支持向量的下界,使得基于总间隔的模糊v?相对间隔学习机(TMF?vRMM)具有相较于相对间隔学习机(RMM)更好的泛化学习能力。
【技术特征摘要】
1.于总间隔的模糊V-相对间隔学习机算法,其特征在于包含以下步骤: 步骤一:在传统的相对间隔学习机(RMM)中融合FSVM和TM-SVM方法,对这些方法进行集成和扩展; 步骤二:训练样本根据它们相关度的不同而采用不同的处理方式,对每个训练数据赋予一个相...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。