【技术实现步骤摘要】
一种基于注意力机制的局部特征增强方法以及存储介质
[0001]本专利技术涉及人工智能领域,尤其涉及一种基于注意力机制的方法
、
装置
、
终端以及存储介质
。
技术介绍
[0002]Transformer
是一种由“Attention is All You Need”论文中提出的基于注意力机制的编码器
‑
解码器模型,其特点是能够更好地捕捉长距离依赖性,并且具有更好的可并行性
。
由于其出色的模型性能和高度的灵活性,
Transformer
在自动语音识别(
ASR
)领域取得了显著的成果,通过引入
Transformer
,
ASR
领域的研究人员可以更好地处理语音和文字之间的转换,提高语音识别的准确性和鲁棒性
。
[0003]Transformer
主要由编码器和解码器两部分构成
。
其核心是通过自注意力机制计算句子中的每个词都和其他词的关联,从而帮助模型更好地理解上下文语义,引入多头注意机制后,每个头关注句子的不同位置,增强了自注意力机制关注句子内部单词之间作用的表达能力
。
前馈神经网络为编码器引入非线性变换,增强了模型的拟合能力
。
解码器接受的编码器的输出数据同时接受上一层解码器的输出,帮助当前节点获取到需要重点关注的内容
。
[0004]然而,
Transformer ...
【技术保护点】
【技术特征摘要】
1.
一种基于注意力机制的局部特征增强方法,其特征在于,所述方法包括以下步骤:
S1
构建
Transformer
模型,
Transformer
模型中编码器包括相连的增强自注意力模块以及前馈神经网络模块;所述增强自注意力模块采用递归门控卷积机制以及自注意力机制;
S2
定义特征
X
作为编码器的输入,通过递归门控卷积机制提取局部特征交互信息后,自注意力机制提取特征之间的全局特征交互信息;
S3
进行局部特征交互信息与全局特征交互信息的融合处理
。2.
根据权利要求1所述的基于注意力机制的局部特征增强方法,其特征在于,在步骤
S2
中,还包括以下步骤:通过线性函数将特征
X
映射为查询矩阵
Q、
键矩阵
K
以及值矩阵
V
;通过矩阵乘法计算查询矩阵
Q
以及键矩阵
K
之间的自注意力分数矩阵
A
,以获取特征之间的全局特征交互信息;将值矩阵
V
作为递归门控卷积的输入,以获取局部特征交互信息
。3.
根据权利要求2所述的基于注意力机制的局部特征增强方法,其特征在于,在获得自注意力分数矩阵
A
后,通过
Softmax
函数对自注意力分数矩阵
A
进行归一化打分,获得全局特征信息交互矩阵以区分重要信息和边缘信息
。4.
根据权利要求3所述的基于注意力机制的局部特征增强方法,其特征在于,将值矩阵
V
作为递归门控卷积的输入时,通过以下方法获取局部特征交互信息:通过线性函数将值矩阵
V<...
【专利技术属性】
技术研发人员:黄海亮,李俊华,段志奎,白剑,梁瑛玮,张海林,鲁和平,李长杰,陈焕然,李乐,王浩,洪行健,冷冬,丁一,
申请(专利权)人:易方信息科技股份有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。