当前位置: 首页 > 专利查询>之江实验室专利>正文

一种类一致邻域的连续谱投影图像识别方法技术

技术编号:30025605 阅读:30 留言:0更新日期:2021-09-11 06:55
本发明专利技术涉及模式识别,机器学习技术领域,公开一种类一致邻域的连续谱投影图像识别方法,包括以下步骤:设定图像数据的初始类一致邻域;估计类一致邻域的信赖概率密度;基于类一致概率密度函数构造邻接矩阵;通过谱投影扩展类一致邻域;再次估计类一致邻域的概率密度并强化邻接矩阵;再次谱投影并聚类完成识别。相比于传统方法,本发明专利技术能够针对图像数据的特点,有效学习具有强同类连接和弱异类连接的邻接矩阵,实现具有明显优势的高精度聚类,且相比于其他的深度学习方法,提供了具有可解释性、计算快速简单、适用面广泛的双层简单网络结构,无需训练图像和优化计算即可实现数据重表示,能够在多种类型的图像上,实现简便,快速,精准的种类识别。精准的种类识别。精准的种类识别。

【技术实现步骤摘要】
一种类一致邻域的连续谱投影图像识别方法


[0001]本专利技术涉及模式识别,机器学习
,特别涉及一种类一致邻域的连续谱投影图像识别方法。

技术介绍

[0002]图像识别是机器学习领域的重要组成部分,其目的在于恢复图像背后的潜在类别结构。图像识别方法分为有监督和无监督两种类型。其中,无监督的图像识别能降低对图像进行标记人力和时间成本,同时适用于犯罪预防与侦破等无法对图像进行标记的场合。然而,在无监督图像识别中,由于没有先验知识给定,检索潜在图像类别结构是一个很大的挑战。在现实生活中,人们所需要处理的图像数据往往具有较高的维数,同时具有复杂的数据结构和属性,这大大增加了识别的难度。
[0003]现有的常用无监督图像识别方法多有缺陷。经典的K

均值算法和高斯混合模型需要每个类之间有明显的间隔,并且要求图像数据集近似线性可分。在科研和工程中,图像数据集往往是线性不可分的,因此直接使用K

均值算法和高斯混合模型难以取得满意的效果。后续发展的谱方法效果好于前面描述的经典方法,但通常难以学习出同时具备类内强连接和类间弱连接的邻接矩阵。因此,在具有噪音或者分布杂乱的高维图像数据集上,谱方法的效果提升非常有限。相对于以上算法,近年来热度较高的深度学习方法能取得较好的图像识别效果,但其问题依然存在。其一,深度学习框架需要针对图像数据的属性特别地设计网络的结构和超参数,这限制了深度框架的可扩展性。其二,深度学习需要训练大量的参数用于获得图像的良好表示,这一过程非常耗时。其三,深度学习是黑箱模型,其操作的可解释性较差。

技术实现思路

[0004]为了解决现有技术中存在的上述技术问题,本专利技术提出了一种类一致邻域的连续谱投影图像识别方法,通过估算每个图像样本类一致邻域的信赖概率密度,并利用连续的谱投影,获得了具有强连通类内连接和弱类间连接的近似理想邻接矩阵,并得到了图像数据的高度可分特征表示,便于识别, 最后使用一种稳定快速的方法实现聚类,完成图像识别,其具体技术方案如下:一种类一致邻域的连续谱投影图像识别方法,包括如下步骤:步骤一,设置图像数据集中每个样本的初始类一致邻域;步骤二,估计每个图像样本类一致邻域的信赖概率密度;步骤三,基于每个图像样本的类一致邻域的信赖概率密度函数构造邻接矩阵A;步骤四,按照规范切图的方式计算邻接矩阵A的谱投影Y,并通过Y扩展每个样本的类一致邻域;步骤五,再次估计类一致邻域的信赖概率密度并强化邻接矩阵B;步骤六,按照商连接的方式计算邻接矩阵B的谱投影U,并对U聚类,完成图像识别。
[0005]进一步的,所述步骤一具体为:设置图像数据集中每个样本的初始类一致邻域:对于图像数据集中的每个图像样本,设置其初始类一致邻域半径为,并设置为的初始类一致邻域;是距离度量,采用欧式距离,代表数据集中的第个近邻点,设置为,代表不超过的最大整数,代表数据集的样本数目,K代表数据集的类别数目。
[0006]进一步的,所述步骤二具体为:对于图像样本,估计其类一致邻域的信赖概率密度函数为:这里参数选取为:当时, , 否则。
[0007]进一步的,所述步骤三具体为:计算图像样本与图像样本的类一致信任度为 并构造邻接矩阵A,使得A的第i行,第j列的元素为 = 。
[0008]进一步的,所述图像样本的连接纯度(purity)的定义为:其中代表的真实标签,的值介于0到1之间。
[0009]进一步的,所述步骤四具体包括如下步骤:(4.1)计算邻接矩阵A的正规化矩阵,并对进行特征值分解,其中为的所有行之和构成的对角矩阵;(4.2)求解G的最大K个特征值对应的特征向量,并构成谱投影,记,即表示的第i个行向量;(4.3)通过余弦度量 计算与的距离;(4.4)对于每个,把所有图像样本的谱投影与它的距离从小到大排序为
,通过 ,即对每个, 记,并记为中的最大元素所对应下标中的第二个分量,使用估算的类一致邻域的规模,并扩展的类一致邻域半径为扩展的类一致邻域为。
[0010]进一步的,所述步骤五具体包括如下步骤:(5.1)估计图像样本谱投影的类一致邻域的信赖概率密度函数为:参数选取为:;(5.2)计算与的类一致信任度为 并构造邻接矩阵B,使得B的第i行,第j列的元素为;(5.3)当与所对应与的距离不大于时,强化邻接矩阵的第i行,第j列的元素为,这里,进一步的,所述步骤六具体包括如下步骤:(6.1)求解邻接矩阵B的最大K个特征值对应的特征向量,并构成;(6.2)以作为初值,代表以作为对角元的对角矩阵,其中代表的所有元素之和的符号,通过非线性共轭梯度法求解得到解为K阶实矩阵Q,并通过Q的奇异值分解得到正交阵,sgn代表符号函数,
ꢀꢀ
代表矩阵的F

范数, 代表UQ的负部,代表矩阵N的转置;(6.3) 令,对于任意的 把第i个图像样本的标签设置为
,这里代表 的第i行,第k列的元素。
[0011]本专利技术的优点:相比于传统方法,本专利技术能够有效地针对图像数据学习出具有强同类连接和弱异类连接的邻接矩阵,实现具有明显优势的高精度图像识别;相比于近年兴起的深度学习方法,本专利技术提供了具有可解释性、计算快速简单、适用面广泛的双层简单网络结构,无需训练样本和优化计算即可实现数据重表示;本专利技术能够在多种类型的图像数据集上,实现简便,快速,精准的种类识别。
附图说明
[0012]图1是本专利技术方法流程图;图2a是本专利技术所实施的图像案例之一:COIL

20物品图像数据集;图2b是本专利技术所实施的图像案例之二:PIE人脸图像数据集;图2c 是本专利技术所实施的图像案例之三:MNIST手写数字图像数据集;图3是本专利技术实施例的邻接矩阵A与高斯邻接矩阵的连接纯度对比示意图;图4a是本专利技术实施例的数据集COIL

20的X和Y中每一个样本的真实类一致邻域的规模示意图;图4b是本专利技术实施例的数据集COIL

20的X和Y中每一个样本的估计类一致邻域的查准率示意图;图4c是本专利技术实施例的数据集COIL

20的 X和Y中每一个样本的估计类一致邻域的查全率示意图;图5a是本专利技术实施例的邻接矩阵A的类内连接模式示意图;图5b是本专利技术实施例的邻接矩阵B的类内连接模式示意图。
具体实施方式
[0013]为了使本专利技术的目的、技术方案和技术效果更加清楚明白,以下结合说明书附图,以物品图像数据集COIL

20为例,对本专利技术作进一步详细说明。
[0014]如图1所示,一种类一致邻域的连续谱投影图像识别方法,包括如下步骤:步骤一,设置图像数据集中每个样本的初始类一致邻域:对于图像数据集中的每个样本,设置其初始类一致邻域半径为,并设置为的初始类一致邻域;是距离度量,代表数据集中的第个近邻点,设置为,代表不超过的最大整数,代表图像数据集的样本数目,代表图像数据集的类别数目。对于物品图像数据集COIL

20, 距离度量采用欧氏距离。
[本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种类一致邻域的连续谱投影图像识别方法,其特征在于,包括如下步骤:步骤一,设置图像数据集中每个样本的初始类一致邻域;步骤二,估计每个图像样本类一致邻域的信赖概率密度;步骤三,基于每个图像样本的类一致邻域的信赖概率密度函数构造邻接矩阵A;步骤四,按照规范切图的方式计算邻接矩阵A的谱投影Y,并通过Y扩展每个样本的类一致邻域;步骤五,再次估计类一致邻域的信赖概率密度并强化邻接矩阵B;步骤六,按照商连接的方式计算邻接矩阵B的谱投影U,并对U聚类,完成图像识别。2.如权利要求1所述的一种类一致邻域的连续谱投影图像识别方法,其特征在于,所述步骤一具体为:设置图像数据集中每个样本的初始类一致邻域:对于图像数据集中的每个图像样本,设置其初始类一致邻域半径为,并设置为的初始类一致邻域;是距离度量,采用欧式距离,代表数据集中的第个近邻点,设置为,代表不超过的最大整数,代表数据集的样本数目,K代表数据集的类别数目。3.如权利要求2所述的一种类一致邻域的连续谱投影图像识别方法,其特征在于,所述步骤二具体为:对于图像样本,估计其类一致邻域的信赖概率密度函数为:这里参数选取为:当时, , 否则。4.如权利要求3所述的一种类一致邻域的连续谱投影图像识别方法,其特征在于,所述步骤三具体为:计算图像样本与图像样本的类一致信任度为 并构造邻接矩阵A,使得A的第i行,第j列的元素为 = 。5.如权利要求4所述的一种类一致邻域的连续谱投影图像识别方法,其特征在于,所述图像样本的连接纯度(purity)的定义为:其中代表的真实标签,的值介于0到1之间。6.如权利要求4所述的一种类一致邻域的连续谱投影图像识别方法,其特...

【专利技术属性】
技术研发人员:张振跃李冰杰
申请(专利权)人:之江实验室
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1