图像识别方法、装置、电子设备及存储介质制造方法及图纸

技术编号:38221216 阅读:11 留言:0更新日期:2023-07-25 17:52
本发明专利技术涉及人工智能及数字医疗技术领域,提供一种图像识别方法、装置、电子设备及存储介质,所述方法包括:基于获取的训练图像集构造支持图像集和查询图像集;获取支持图像集中每个类别的原型特征;计算查询图像集中每个图像与每个类别的原型特征之间的距离;基于所述距离对原型网络的损失函数进行改进得到改进后的损失函数;根据改进后的损失函数对所述原型网络进行迭代训练,得到图像分类器。本发明专利技术在分类正确的基础上拉近相同类别的图像之间的距离且同时拉大了不同类别的图像之间的距离,使原型网络更加注意类别间和类别内的异同,从而训练出一个足够好的能够区分出相似和不同类别的嵌入空间,减少误分类率,进一步提高了模型的准确率。高了模型的准确率。高了模型的准确率。

【技术实现步骤摘要】
图像识别方法、装置、电子设备及存储介质


[0001]本专利技术涉及人工智能
,具体涉及一种图像识别方法、装置、电子设备及存储介质。

技术介绍

[0002]深度学习能够应用于多种不同的领域中,如:图像识别、语音识别、医疗诊断、应用程序的测试等,深度学习需要大量的有标签数据和多次的迭代来训练大量的参数,然而在现实生活中有标签数据较难获得,且对图像的标注,既耗时又耗力,这限制了深度学习的可扩展性,尤其是面对新的从未出现过的类别时,又限制了深度学习的可应用性。
[0003]如何通过少量的有标签数据训练得到一个泛化性能优、鲁棒性强的分类器是一个值得研究的问题,即少样本问题的研究。

技术实现思路

[0004]鉴于以上内容,有必要提出一种图像识别方法、装置、电子设备及存储介质,能够提高图像识别的准确度。
[0005]本专利技术的第一方面提供一种图像识别方法,所述方法包括:
[0006]获取训练图像集,基于所述训练图像集构造支持图像集和查询图像集;
[0007]获取所述支持图像集中每个类别的原型特征;
[0008]计算所述查询图像集中每个图像与所述每个类别的原型特征之间的距离;
[0009]基于所述距离对原型网络的损失函数进行改进得到改进后的损失函数;
[0010]根据所述改进后的损失函数对所述原型网络进行迭代训练,得到图像分类器。
[0011]根据本专利技术的一个可选的实施方式,所述获取所述支持图像集中每个类别的原型特征包括:
[0012]提取所述支持图像集中每个图像的图像特征;
[0013]对于所述支持图像集中每个类别中的任意一个图像,计算所述任意一个图像的图像特征与所述类别中的其他图像的图像特征之间的距离;
[0014]根据所述距离计算所述任意一个图像的图像密度;
[0015]根据所述图像密度识别所述任意一个图像的图像特征是否为离群特征;
[0016]删除所述类别中的所述离群特征,得到剩余特征;
[0017]根据所述剩余特征,获得所述类别的原型特征。
[0018]根据本专利技术的一个可选的实施方式,所述基于所述距离对原型网络的损失函数进行改进得到改进后的损失函数包括:
[0019]获取所述距离中的最小值及最大值;
[0020]根据所述最小值、所述最大值及预设间隔阈值超参数,构建距离损失函数;
[0021]根据所述查询图像集中每个图像的真实类别标签,及预测为所述真实类别标签的概率,构建概率损失函数;
[0022]根据所述距离损失函数及所述概率损失函数,得到总损失函数;
[0023]将所述总损失函数确定为所述原型网络的改进后的损失函数。
[0024]根据本专利技术的一个可选的实施方式,所述获取训练图像集包括:
[0025]获取目标对象的原始视频;
[0026]确定所述原始视频的采样帧率及分辨率;
[0027]根据所述采样帧率对对应的所述原始视频进行自适应采样,得到多个视频帧;
[0028]根据所述分辨率及预设目标分辨率对每个所述视频帧进行压缩或者放大处理,得到多个目标视频帧;
[0029]基于所述多个目标视频帧得到所述训练图像集。
[0030]根据本专利技术的一个可选的实施方式,所述根据所述采样帧率对对应的所述原始视频进行自适应采样包括:
[0031]根据多个所述采样帧率计算得到平均采样帧率;
[0032]判断每个所述采样帧率是否大于所述平均采样帧率;
[0033]当所述采样帧率大于所述平均采样帧率,对所述采样帧率对应的所述原始视频进行隔帧采样;
[0034]当所述采样帧率小于所述平均采样帧率,对所述采样帧率对应的所述原始视频进行逐帧采样。
[0035]根据本专利技术的一个可选的实施方式,所述基于所述训练图像集构造支持图像集和查询图像集包括:
[0036]从所述训练图像集中随机抽选N个类别,并从每个类别中随机抽取K个训练图像,得到所述支持图像集;
[0037]基于所述N个类别中的每个类别中未被抽取的训练图像,获得所述查询图像集。
[0038]根据本专利技术的一个可选的实施方式,所述方法还包括:
[0039]接收待识别图像;
[0040]使用所述图像分类器确定所述待识别图像的类别,得到图像识别结果。
[0041]本专利技术的第二方面提供一种图像识别装置,所述装置包括:
[0042]构造模块,用于获取训练图像集,基于所述训练图像集构造支持图像集和查询图像集;
[0043]获取模块,用于获取所述支持图像集中每个类别的原型特征;
[0044]计算模块,用于计算所述查询图像集中每个图像与所述每个类别的原型特征之间的距离;
[0045]生成模块,用于基于所述距离对原型网络的损失函数进行改进得到改进后的损失函数;
[0046]训练模块,用于根据所述改进后的损失函数对所述原型网络进行迭代训练,得到图像分类器。
[0047]本专利技术的第三方面提供一种电子设备,所述电子设备包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现所述图像识别方法。
[0048]本专利技术的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述图像识别方法。
[0049]本专利技术在原型网络的基础上增加了对离群特征的筛选,由于离群特征类似于噪声,通过筛选掉离群特征,降低了噪声对原型特征的干扰和影响,得到较为干净的原型特征,进而计算得到包含最为显著和有效信息的原型特征,提高了模型的准确率;此外,通过改进损失函数,融合了距离损失函数和概率损失函数,在分类正确的基础上,拉近了相同类别的图像之间距离,且同时拉大了不同类别的图像之间的距离,使原型网络更加注意类别间和类别内的异同,从而训练出一个足够好的能够区分出相似和不同类别的嵌入空间,减少误分类率,进一步提高了模型的准确率。
附图说明
[0050]图1是本专利技术实施例一提供的图像识别方法的流程图。
[0051]图2是本专利技术实施例二提供的图像识别装置的结构图。
[0052]图3是本专利技术实施例三提供的电子设备的结构示意图。
具体实施方式
[0053]为了能够更清楚地理解本专利技术的上述目的、特征和优点,下面结合附图和具体实施例对本专利技术进行详细描述。在不冲突的情况下,本专利技术的实施例及实施例中的特征可以相互组合。
[0054]除非另有定义,本文所使用的所有的技术和科学术语与属于本专利技术的
的技术人员通常理解的含义相同。本文中在本专利技术的说明书中所使用的术语只是为了描述在一个可选的实施方式中实施例的目的,不是旨在于限制本专利技术。
[0055]本专利技术实施例提供的图像识别方法由电子设备执行,相应地,图像识别装置运行于电子设备中。
[0056]本专利技术实施例可以基于人工智能技术对数据进行标准化处理。其本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种图像识别方法,其特征在于,所述方法包括:获取训练图像集,基于所述训练图像集构造支持图像集和查询图像集;获取所述支持图像集中每个类别的原型特征;计算所述查询图像集中每个图像与所述每个类别的原型特征之间的距离;基于所述距离对原型网络的损失函数进行改进得到改进后的损失函数;根据所述改进后的损失函数对所述原型网络进行迭代训练,得到图像分类器。2.如权利要求1所述的图像识别方法,其特征在于,所述获取所述支持图像集中每个类别的原型特征包括:提取所述支持图像集中每个图像的图像特征;对于所述支持图像集中每个类别中的任意一个图像,计算所述任意一个图像的图像特征与所述类别中的其他图像的图像特征之间的距离;根据所述距离计算所述任意一个图像的图像密度;根据所述图像密度识别所述任意一个图像的图像特征是否为离群特征;删除所述类别中的所述离群特征,得到剩余特征;根据所述剩余特征,获得所述类别的原型特征。3.如权利要求1所述的图像识别方法,其特征在于,所述基于所述距离对原型网络的损失函数进行改进得到改进后的损失函数包括:获取所述距离中的最小值及最大值;根据所述最小值、所述最大值及预设间隔阈值超参数,构建距离损失函数;根据所述查询图像集中每个图像的真实类别标签,及预测为所述真实类别标签的概率,构建概率损失函数;根据所述距离损失函数及所述概率损失函数,得到总损失函数;将所述总损失函数确定为所述原型网络的改进后的损失函数。4.如权利要求1至3中任意一项所述的图像识别方法,其特征在于,所述获取训练图像集包括:获取目标对象的原始视频;确定所述原始视频的采样帧率及分辨率;根据所述采样帧率对对应的所述原始视频进行自适应采样,得到多个视频帧;根据所述分辨率及预设目标分辨率对每个所述视频帧进行压缩或者放大处理,得到多个目标视频帧;基于所述多个目标视频帧得到...

【专利技术属性】
技术研发人员:徐玲玲卢玥盛建达李佼戴磊陈远旭
申请(专利权)人:平安科技深圳有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1