System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本公开涉及计算机,尤其涉及一种文本生成方法、装置、设备、存储介质及计算机程序产品。
技术介绍
1、目前,随着计算机技术和大数据领域的不断发展,很多网络平台应运而生。这些网络平台可以提供使用用户进行信息获取、社交和娱乐等等。
2、对于网络平台的使用用户来说,存在一些特殊用户,这些特殊用户是网络平台中不同领域下关注度高和浏览量高的用户,这些用户需要不断针对网络平台上的话题进行文本创作和发布,以获取其他使用用户的关注。
3、但是,对于这些特殊用户不断针对不同话题手动创作文本内容并发布来说,创作效率低,长时间后容易造成该特殊用户的关注度和浏览量的下降。
技术实现思路
1、本公开实施例提供一种文本生成方法、装置、设备、存储介质及计算机程序产品,能够有效地为指定用户提供与指定话题相关,且符合指定用户身份的文本数据。
2、本公开实施例提供一种文本生成方法,包括:获取指定话题的话题数据以及指定用户的身份数据;基于所述话题数据和所述身份数据,利用训练好的文本生成模型进行多个预测词的预测和拼接处理,得到文本数据;所述文本数据针对所述指定话题且符合所述指定用户的身份;其中,所述文本生成模型为基于样本用户的身份样本数据、样本话题的样本话题数据以及所述样本话题关联的历史文本数据,对预设的大语言模型训练得到。
3、在一些实施例中,所述指定用户为社交媒体平台的目标用户;所述文本数据包括多条社交文本数据;所述方法还包括:响应于检测到针对所述多条社交文本数据的选择指令
4、在一些实施例中,所述基于所述话题数据和所述身份数据,利用训练好的文本生成模型进行多个预测词的预测和拼接处理,得到文本数据,包括:基于所述话题数据和所述身份数据,生成预设格式的待处理数据;将所述待处理数据输入训练好的所述文本生成模型进行逐词预测处理,并将预测出的多个预测词按照预测顺序进行拼接处理,得到输出的文本数据。
5、在一些实施例中,所述话题数据包括以下至少之一:话题名称、话题导语、话题关键词;所述身份数据包括以下至少之一:所述指定用户的名称、所述指定用户的性别、所述指定用户的职业、所述指定用户的学历、所述指定用户的擅长领域。
6、在一些实施例中,所述文本生成模型的训练方法,包括:获取样本数据集;其中,所述样本数据集中的每一样本数据至少包括样本用户的身份样本数据、样本话题的样本话题数据以及所述样本话题关联的历史文本数据;基于所述样本数据集对所述大语言模型进行迭代训练,直至符合收敛条件得到所述文本生成模型,每次迭代训练的过程包括:针对每一样本数据,基于所述身份样本数据以及所述样本话题数据,利用所述大语言模型进行多个预测词的预测和拼接处理,得到文本预测数据;其中,所述文本预测数据针对所述样本话题且符合所述样本用户的身份;基于每一样本数据对应的文本预测数据与历史文本数据之间的差异,对所述大语言模型进行微调,得到对所述大语言模型进行微调后的模型参数。
7、在一些实施例中,所述针对每一样本数据,基于所述身份样本数据以及所述样本话题数据,利用所述大语言模型进行多个预测词的预测和拼接处理,得到文本预测数据,包括:针对每一样本数据,基于所述身份样本数据以及所述样本话题数据,利用所述大语言模型进行首次预测,得到第一预测词;并利用所述历史文本数据对所述身份样本数据以及所述样本话题数据进行逐词预测,得到各第二预测词;其中,所述历史文本数据中与所述第一预测词的排列位置相同的词用于指导首个第二预测词的预测,所述历史文本数据中的指定词用于指导后续第二预测词的预测,所述指定词为所述历史文本数据中当前预测的第二预测词的排列位置的词以及当前预测的第二预测词的排列位置之前位置的词;将所述第一预测词和各第二预测词按预测顺序进行拼接,得到所述文本预测数据。
8、在一些实施例中,所述基于每一样本数据对应的文本预测数据与历史文本数据之间的差异,对所述大语言模型进行微调,得到对所述大语言模型进行微调后的模型参数,包括:针对每一样本数据,确定文本预测数据与历史文本数据中相同排列位置的词之间的差异,并基于各差异确定每一样本数据对应的总差异;基于每一样本数据的总差异确定损失值;基于所述损失值对所述大语言模型进行微调,得到对所述大语言模型进行微调后的模型参数。
9、在一些实施例中,所述基于所述损失值对所述大语言模型进行微调,得到对所述大语言模型进行微调后的模型参数,包括:基于所述损失值调整预设的第一矩阵和预设的第二矩阵中的矩阵数据,其中,所述第一矩阵和第二矩阵为初始参数矩阵的低秩矩阵;基于所述初始参数矩阵、矩阵数据调整后的第一矩阵和第二矩阵,得到对所述大语言模型进行微调后的模型参数。
10、本公开实施例还提供一种文本生成装置,包括:获取模块,配置为获取指定话题的话题数据以及指定用户的身份数据;处理模块,配置为基于所述话题数据和所述身份数据,利用训练好的文本生成模型进行多个预测词的预测和拼接处理,得到文本数据;所述文本数据针对所述指定话题且符合所述指定用户的身份;其中,所述文本生成模型为基于样本用户的身份样本数据、样本话题的样本话题数据以及所述样本话题关联的历史文本数据,对预设的大语言模型训练得到。
11、在一些实施例中,所述指定用户为社交媒体平台的目标用户;所述文本数据包括多条社交文本数据;所述装置还包括:发布模块,配置为响应于检测到针对所述多条社交文本数据的选择指令,确定所述选择指令所指示的社交文本数据作为目标社交文本数据;基于所述目标用户的账号,发布所述目标社交文本数据。
12、在一些实施例中,所述处理模块,还配置为基于所述话题数据和所述身份数据,生成预设格式的待处理数据;将所述待处理数据输入训练好的所述文本生成模型进行逐词预测处理,并将预测出的多个预测词按照预测顺序进行拼接处理,得到输出的文本数据。
13、在一些实施例中,所述话题数据包括以下至少之一:话题名称、话题导语、话题关键词;所述身份数据包括以下至少之一:所述指定用户的名称、所述指定用户的性别、所述指定用户的职业、所述指定用户的学历、所述指定用户的擅长领域。
14、在一些实施例中,所述装置还包括:训练模块,配置为获取样本数据集;其中,所述样本数据集中的每一样本数据至少包括样本用户的身份样本数据、样本话题的样本话题数据以及所述样本话题关联的历史文本数据;基于所述样本数据集对所述大语言模型进行迭代训练,直至符合收敛条件得到所述文本生成模型,每次迭代训练的过程包括:针对每一样本数据,基于所述身份样本数据以及所述样本话题数据,利用所述大语言模型进行多个预测词的预测和拼接处理,得到文本预测数据;其中,所述文本预测数据针对所述样本话题且符合所述样本用户的身份;基于每一样本数据对应的文本预测数据与历史文本数据之间的差异,对所述大语言模型进行微调,得到对所述大语言模型进行微调后的模型参数。本文档来自技高网...
【技术保护点】
1.一种文本生成方法,其特征在于,所述方法包括:
2.根据权利要求1所述的方法,其特征在于,所述指定用户为社交媒体平台的目标用户;所述文本数据包括多条社交文本数据;所述方法还包括:
3.根据权利要求1或2所述的方法,其特征在于,所述基于所述话题数据和所述身份数据,利用训练好的文本生成模型进行多个预测词的预测和拼接处理,得到文本数据,包括:
4.根据权利要求1或2所述的方法,其特征在于,所述话题数据包括以下至少之一:话题名称、话题导语、话题关键词;
5.根据权利要求1或2所述的方法,其特征在于,所述文本生成模型的训练方法,包括:
6.根据权利要求5所述的方法,其特征在于,所述针对每一样本数据,基于所述身份样本数据以及所述样本话题数据,利用所述大语言模型进行多个预测词的预测和拼接处理,得到文本预测数据,包括:
7.根据权利要求6所述的方法,其特征在于,所述基于每一样本数据对应的文本预测数据与历史文本数据之间的差异,对所述大语言模型进行微调,得到对所述大语言模型进行微调后的模型参数,包括:
8.根据权利
9.一种文本生成装置,其特征在于,所述装置包括:
10.一种电子设备,其特征在于,包括:
11.一种计算机可读存储介质,其上存储有计算机程序或可执行指令,其特征在于,所述计算机程序或所述可执行指令被处理器执行时实现权利要求1至8任一项所述的方法。
12.一种计算机程序产品,包括计算机程序或可执行指令,其特征在于,所述计算机程序或所述可执行指令被处理器执行时实现权利要求1至8任一项所述的方法。
...【技术特征摘要】
1.一种文本生成方法,其特征在于,所述方法包括:
2.根据权利要求1所述的方法,其特征在于,所述指定用户为社交媒体平台的目标用户;所述文本数据包括多条社交文本数据;所述方法还包括:
3.根据权利要求1或2所述的方法,其特征在于,所述基于所述话题数据和所述身份数据,利用训练好的文本生成模型进行多个预测词的预测和拼接处理,得到文本数据,包括:
4.根据权利要求1或2所述的方法,其特征在于,所述话题数据包括以下至少之一:话题名称、话题导语、话题关键词;
5.根据权利要求1或2所述的方法,其特征在于,所述文本生成模型的训练方法,包括:
6.根据权利要求5所述的方法,其特征在于,所述针对每一样本数据,基于所述身份样本数据以及所述样本话题数据,利用所述大语言模型进行多个预测词的预测和拼接处理,得到文本预测数据,包括:
【专利技术属性】
技术研发人员:魏梦溪,周鑫,
申请(专利权)人:微梦创科网络科技中国有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。