System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 智能眼镜控制方法、智能眼镜、存储介质及程序产品技术_技高网

智能眼镜控制方法、智能眼镜、存储介质及程序产品技术

技术编号:42795028 阅读:9 留言:0更新日期:2024-09-21 00:50
本申请公开了一种智能眼镜控制方法、智能眼镜、存储介质及程序产品,涉及智能眼镜技术领域,公开了一种智能眼镜控制方法,所述智能眼镜控制方法包括:对智能眼镜的佩戴者所处环境进行音频采集和声源分离,得到各声源的音轨音频信息;识别出所述佩戴者的第一交互操作指向的感兴趣人员;对所述感兴趣人员进行唇语识别,得到唇语信息;将所述唇语信息分别与各声源的音轨音频信息进行匹配,得到与所述唇语信息匹配的目标声源;响应于音频处理指令,对所述目标声源的音轨音频信息进行对应的音频处理。本申请解决了智能眼镜在会议中的使用场景受限的技术问题。

【技术实现步骤摘要】

本申请涉及智能眼镜,尤其涉及一种智能眼镜控制方法、智能眼镜、存储介质及程序产品


技术介绍

1、随着科技的飞速发展,智能穿戴设备,特别是以ar(增强现实)眼镜和集成先进摄像、音频处理技术的智能拍照眼镜为代表的智能眼镜产品,凭借其便携性、直观性和高效的信息处理能力,在市场上赢得了广泛关注与应用。

2、现有智能眼镜在商务会议中通常是用于会议内容记录,然而当前智能眼镜只能对一段时间内所有的语音内容进行录制作为会议记录,或者将语音内容转换为文字作为会议记录。难以针对单一对象的语音内容进行处理,导致了智能眼镜在会议中的使用场景明显受限。

3、上述内容仅用于辅助理解本申请的技术方案,并不代表承认上述内容是现有技术。


技术实现思路

1、本申请的主要目的在于提供一种智能眼镜控制方法、智能眼镜、存储介质及程序产品,旨在解决智能眼镜在会议中的使用场景受限的技术问题。

2、为实现上述目的,本申请提出一种智能眼镜控制方法,所述智能眼镜控制方法包括:

3、对智能眼镜的佩戴者所处环境进行音频采集和声源分离,得到各声源的音轨音频信息;

4、识别出所述佩戴者的第一交互操作指向的感兴趣人员,并对所述感兴趣人员进行唇语识别,得到唇语信息;

5、将所述唇语信息分别与各声源的音轨音频信息进行匹配,得到与所述唇语信息匹配的目标声源;

6、响应于音频处理指令,对所述目标声源的音轨音频信息进行对应的音频处理。

7、在一实施例中,所述对智能眼镜的佩戴者所处环境进行音频采集和声源分离,得到各声源的音轨音频信息的步骤,包括:

8、对智能眼镜的佩戴者所处环境进行音频采集,得到环境音频信息;

9、对所述环境音频信息进行独立成分分析,得到估计的各独立成分;

10、将各所述独立成分分别合成为音频信号,得到各声源的音轨音频信息。

11、在一实施例中,所述对所述感兴趣人员进行唇语识别,得到唇语信息的步骤,包括:

12、对所述感兴趣人员进行图像采集,得到人员图像信息;

13、提取所述人员图像信息中感兴趣人员的唇部运动特征;

14、将所述唇部运动特征输入预定的唇动识别模型,得到所述感兴趣人员的发音序列;

15、基于所述发音序列,生成对应的唇语信息。

16、在一实施例中,所述将所述唇语信息分别与各声源的音轨音频信息进行匹配,得到与所述唇语信息匹配的目标声源的步骤,包括:

17、确定所述唇语信息对应的采集时间段;

18、从各所述声源的音轨音频信息中截取所述采集时间段内的对比音频信息;

19、将所述唇语信息分别与各所述声源的对比音频信息进行匹配,并将与所述唇语信息匹配的对比音频信息对应的声源作为目标声源。

20、在一实施例中,所述第一交互操作为眼动交互操作,所述识别出所述佩戴者的第一交互操作指向的感兴趣人员的步骤,包括:

21、对所述佩戴者的眼动交互操作进行眼球追踪,得到所述佩戴者的视线方向;

22、将所述视线方向上的人员作为感兴趣人员。

23、在一实施例中,在所述将所述唇语信息分别与各声源的音轨音频信息进行匹配,得到与所述唇语信息匹配的目标声源的步骤之后,所述智能眼镜控制方法还包括:

24、获取所述感兴趣人员的身份图像特征;

25、构建所述身份图像特征与所述目标声源之间的映射关系。

26、在一实施例中,在所述构建所述身份图像特征与所述目标声源之间的映射关系的步骤之后,包括:

27、识别出所述佩戴者的第二交互操作指向的新的感兴趣人员;

28、在所述映射关系中查询得到新的感兴趣人员对应的目标声源后,执行步骤:响应于音频处理指令,对所述目标声源的音轨音频信息进行对应的音频处理;

29、在所述映射关系中未查询得到新的感兴趣人员对应的目标声源后,执行步骤:对所述感兴趣人员进行唇语识别,得到唇语信息。

30、此外,为实现上述目的,本申请还提出一种智能眼镜,智能眼镜包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序配置为实现如上文所述的智能眼镜控制方法的步骤。

31、此外,为实现上述目的,本申请还提出一种存储介质,所述存储介质为计算机可读存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上文所述的智能眼镜控制方法的步骤。

32、此外,为实现上述目的,本申请还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,所述计算机程序被处理器执行时实现如上文所述的智能眼镜控制方法的步骤。

33、本申请提出的一个或多个技术方案,至少具有以下技术效果:

34、本申请通过对智能眼镜的佩戴者所处环境进行音频采集和声源分离,得到各声源的音轨音频信息,由此本申请采集到了所述佩戴者所处环境下各声源(如发言人、扬声器等声源)发出的音频信息。进而可以识别出所述佩戴者的第一交互操作指向的感兴趣人员。然后对所述感兴趣人员进行唇语识别,得到唇语信息。从而本申请可以借助将所述唇语信息分别与各声源的音轨音频信息进行匹配,得到与所述唇语信息匹配的目标声源,实现了所述感兴趣人员与所述目标声源之间的匹配。进而可以响应于音频处理指令,对所述目标声源的音轨音频信息进行对应的音频处理(如存储该目标声源的音轨音频信息、转换为文字进行显示、翻译该音轨音频信息为指定语音等)。本申请通过对佩戴者感兴趣的人员进行唇语识别后得到的唇语信息与从环境中分离出各声源的音轨音频信息匹配,实现了感兴趣人员与音频中的声源之间的绑定,由此可以在会议过程中即可针对性地对所述感兴趣人员对应的音轨音频信息进行存储、转换为文字、翻译等音频处理,从而本申请增加了智能眼镜在会议中更多可实现的使用场景。

本文档来自技高网...

【技术保护点】

1.一种智能眼镜控制方法,其特征在于,所述智能眼镜控制方法包括:

2.如权利要求1所述的方法,其特征在于,所述对智能眼镜的佩戴者所处环境进行音频采集和声源分离,得到各声源的音轨音频信息的步骤,包括:

3.如权利要求1所述的方法,其特征在于,所述对所述感兴趣人员进行唇语识别,得到唇语信息的步骤,包括:

4.如权利要求1所述的方法,其特征在于,所述将所述唇语信息分别与各声源的音轨音频信息进行匹配,得到与所述唇语信息匹配的目标声源的步骤,包括:

5.如权利要求1所述的方法,其特征在于,所述第一交互操作为眼动交互操作,所述识别出所述佩戴者的第一交互操作指向的感兴趣人员的步骤,包括:

6.如权利要求1至5中任一项所述的方法,其特征在于,在所述将所述唇语信息分别与各声源的音轨音频信息进行匹配,得到与所述唇语信息匹配的目标声源的步骤之后,所述智能眼镜控制方法还包括:

7.如权利要求6所述的方法,其特征在于,在所述构建所述身份图像特征与所述目标声源之间的映射关系的步骤之后,包括:

8.一种智能眼镜,其特征在于,所述智能眼镜包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序配置为实现如权利要求1至7中任一项所述的智能眼镜控制方法的步骤。

9.一种存储介质,其特征在于,所述存储介质为计算机可读存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的智能眼镜控制方法的步骤。

10.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的智能眼镜控制方法的步骤。

...

【技术特征摘要】

1.一种智能眼镜控制方法,其特征在于,所述智能眼镜控制方法包括:

2.如权利要求1所述的方法,其特征在于,所述对智能眼镜的佩戴者所处环境进行音频采集和声源分离,得到各声源的音轨音频信息的步骤,包括:

3.如权利要求1所述的方法,其特征在于,所述对所述感兴趣人员进行唇语识别,得到唇语信息的步骤,包括:

4.如权利要求1所述的方法,其特征在于,所述将所述唇语信息分别与各声源的音轨音频信息进行匹配,得到与所述唇语信息匹配的目标声源的步骤,包括:

5.如权利要求1所述的方法,其特征在于,所述第一交互操作为眼动交互操作,所述识别出所述佩戴者的第一交互操作指向的感兴趣人员的步骤,包括:

6.如权利要求1至5中任一项所述的方法,其特征在于,在所述将所述唇语信息分别与各声源的音轨音频信息进行匹配,得到与所述唇语...

【专利技术属性】
技术研发人员:刘成金张庆凯王平平
申请(专利权)人:青岛歌尔视界科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1