【技术实现步骤摘要】
减少NLP中基于语料库偏见自我诊断和除偏方法及系统
[0001]本专利技术涉及语言处理
,具体来说,涉及减少NLP中基于语料库偏见自我诊断和除偏方法及系统。
技术介绍
[0002]当在大型的、未经过滤的互联网抓取上进行训练时,语言模型会接收并重新产生数据中可能存在的各种不良偏见。由于大型模型需要数以百万计的训练样本来实现良好的性能,因此很难完全防止它们被施加到这些内容上。
[0003]而简单的解决方案,如使用禁词列表不能缓解这个问题;首先,它们不能可靠地阻止语言模型生成有偏见的文本。因为只使用本身完全没有问题的词,就很容易产生有偏见的文本,由于许多这样的词是英语词汇中的重要词,因此有意义的文本生成需要这些词,不应该被列入禁止词的名单。其次,禁词也会阻止语言模型获得与禁词相关的主题知识,但是这些主题知识对于某些应用来说可能是必要的。因此,在不损害模型能力的情况下,禁用词语本身就很困难。
[0004]另一种解决方案是谨慎小心建立和维护训练数据集,该方案对于改善在线和其他形式的交流中的语言和文化多样性尤其有效。然而,对于可用于全球常见语言的大型语言模型,最好还能有其他机制来解决偏见,因为考虑到需要的数据量,数据集的整理和记录非常复杂繁琐。除此之外还需要建立不同的训练集并且相应地为每个期望的行为训练不同的模型,这可能会导致高度的环境影响。
[0005]针对相关技术中的问题,目前尚未提出有效的解决方案。
技术实现思路
[0006]针对相关技术中的问题,本专利技术提出减少NLP中基于 ...
【技术保护点】
【技术特征摘要】
1.减少NLP中基于语料库偏见自我诊断和除偏方法,其特征在于,该方法包括以下步骤:S1、获取偏见的文本描述;S2、基于语言模型的内部知识以及偏见的文本描述对语言模型进行自我诊断;S3、基于预设的自我除偏算法对语言模型进行自我除偏。2.根据权利要求1所述的减少NLP中基于语料库偏见自我诊断和除偏方法,其特征在于,所述基于语言模型的内部知识以及偏见的文本描述对语言模型进行自我诊断包括以下步骤:S21、定义语言模型M和词语序列w1,
…
wk;S22、定义在输入为词语序列w1,
…
wk时,语言模型输出下一个词语是ω的概率表示为p
M
(ω|ω1,
…
ωk),将概率最大的单词作为语言模型M的输出;S23、基于语言模型M生成的语句x和属性描述y,构建自我诊断输入sdg(x,y);S24、通过预设的概率计算公式计算语句x表现出属性y的概率。3.根据权利要求2所述的减少NLP中基于语料库偏见自我诊断和除偏方法,其特征在于,所述概率计算公式为:其中,M表示语言模型;x表示语言模型生成的语句;y表示属性描述;sdg(x,y)表示构建的自相关输入;ω表示语言模型M在接收自我诊断输入sdg(x,y)后可能的两种输出,包括Yes和No;p
M
(ω|sdg(x,y))表示语言模型M输入为sdg(x,y)时,语言模型M输出为ω的概率;p(x,y)表示语句x表现出属性y的概率,且当p(x,y)大于预设的阈值σ时,则表示语句x表现出属性y。4.根据权利要求1所述的减少NLP中基于语料库偏见自我诊断和除偏方法,其特征在于,所述基于预设的自我除偏算法对语言模型进行自我除偏包括以下步骤:S31、基于预设的自我除偏算法,构建输入x对应的自除偏输入sdb(x,y);S32、将原始输入x以及自除偏输入sdb(x,y)输入语言模型M中,语言模型M计算输出标记单词的概率分布,得到p
M
(ω|x)和p
M
(ω|sdb(x,y));S33、将原始输入x对应的概率分布p
M
(ω|x)和自除偏输入sdb(x,y)的概率分布p
M
(ω|sdb(x,y))输入算法中,通过计算得到新的概率分布;S34、基于计算得到新的概率分布通过比较标记单词对应概率大小,输出最大概率对应的标记单词。5.根据权利要求4所述的减少NLP中基于语料库偏见自我诊断和除偏方法,其特征在于,所述新的概率分布的计算公式为:
其中,M表示语言模型;x表示原始输入;y表示属性的文本描述;ω表示模型M在接收输入后可能的输出;p
M
(ω|x)表示原始输入x对应的概率分布;p
M
(ω|sdb(x,y))表示自除偏输入sdb(x,y)对应的概率分布;Δ(ω,x,y)表示p
M
(ω|x)和p
M
(ω|sdb(x,y))的差值;表示新的概率分布;α:R
→
[0,1]表示缩放函数,其范围在[0,1]之间,用于改变基于差值,Δ(ω,x,y)的偏见词的概率,R表示实数域。6.减少NLP中基于语料库偏见自我诊断和除偏系统,用于权利要求1
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。