本申请提供的一种在互动影视场景中的角色生成方法,包括:实时获取角色第一信息、第二信息和第三信息;根据所述第一信息生成声音信息、根据所述第二信息生成外形信息和根据所述第三信息生成行为信息;根据所述声音信息、外形信息和行为信息生成角色。本申请通过实时互动影视的过程中生成自定义角色,增加影视剧情的互动性和多变性。的互动性和多变性。的互动性和多变性。
【技术实现步骤摘要】
一种在互动影视场景中的角色生成方法及装置
[0001]本申请涉及互动影视领域,尤其涉及一种在互动影视场景中的角色生成方法。本申请还涉及一种在互动影视场景中的角色生成装置。
技术介绍
[0002]互动影视是一种融合了传统电影、电视剧和游戏元素的媒体形式。它允许观众参与剧情决策、控制角色行为,以及实时影响故事发展的方向。以下是一些关于互动影视的技术和方法:
[0003]总的来说,互动影视让观众成为故事的参与者,提供了更加自主和沉浸的观影体验。这种形式的媒体需要融合多个技术手段和创新方法,以提供更具交互性和个性化的内容。
[0004]现有互动影视技术中,不存在自定义创建角色的方案,其原因在于,现有互动影视往往是提前录制所有的场景,画面不是通过实时计算和渲染产生的。如果客户想要代入新的角色和视角,没有相应的角色创建工具。
技术实现思路
[0005]本申请的目的在于克服现有技术中不能自定义创建角色的问题,提供一种在互动影视场景中的角色生成方法。本申请还涉及一种在互动影视场景中的角色生成装置。
[0006]本申请提供的一种在互动影视场景中的角色生成方法,包括:
[0007]实时获取角色第一信息、第二信息和第三信息;
[0008]根据所述第一信息生成声音信息、根据所述第二信息生成外形信息和根据所述第三信息生成行为信息;
[0009]根据所述声音信息、外形信息和行为信息生成角色。
[0010]可选地,所述实时获取角色第一信息、第二信息和第三信息,包括:
[0011]通过声音传感器获取所述第一信息;
[0012]通过视频传感器获取所述第二信息;
[0013]通过剧情场景信息和编辑信息生成所述第三信息。
[0014]可选地,生成所述第三信息,采用生成对抗网络,包括:
[0015]对所述剧情场景信息和编辑信息进行清理、特征提取和标准化;
[0016]使用生成对抗网络建立模拟角色行为的生成模型,包括由生成器和判别器组成,生成器负责生成模拟信息,判别器则判断模拟信息与真实信息之间的差异;
[0017]使用所述剧情场景信息和编辑信息训练生成模型;
[0018]利用训练好的生成模型生成新的模拟角色行为信息。
[0019]可选地,还包括:根据所述剧情信息对未来发生的剧情进行的决策。
[0020]可选地,所述决策,采用生成式AI进行。
[0021]本申请还提供一种在互动影视场景中的角色生成装置,包括:
[0022]获取模块,用于实时获取角色第一信息、第二信息和第三信息;
[0023]处理模块,用于根据所述第一信息生成声音信息、根据所述第二信息生成外形信息和根据所述第三信息生成行为信息;
[0024]生成模块,用于根据所述声音信息、外形信息和行为信息生成角色。
[0025]可选地,所述获取模块实时获取角色第一信息、第二信息和第三信息,包括:
[0026]通过声音传感器获取所述第一信息;
[0027]通过视频传感器获取所述第二信息;
[0028]通过剧情场景信息和编辑信息生成所述第三信息。
[0029]可选地,所述获取模块生成所述第三信息,采用生成对抗网络,包括:
[0030]对所述剧情场景信息和编辑信息进行清理、特征提取和标准化;
[0031]使用生成对抗网络建立模拟角色行为的生成模型,包括由生成器和判别器组成,生成器负责生成模拟信息,判别器则判断模拟信息与真实信息之间的差异;
[0032]使用所述剧情场景信息和编辑信息训练生成模型;
[0033]利用训练好的生成模型生成新的模拟角色行为信息。
[0034]可选地,所述处理模块还包括:根据所述剧情信息对未来发生的剧情进行的决策。
[0035]可选地,所述决策,采用生成式AI进行。
[0036]本申请的优点和有益效果:
[0037]本申请提供的一种在互动影视场景中的角色生成方法,包括:实时获取角色第一信息、第二信息和第三信息;根据所述第一信息生成声音信息、根据所述第二信息生成外形信息和根据所述第三信息生成行为信息;根据所述声音信息、外形信息和行为信息生成角色。本申请通过实时互动影视的过程中生成自定义角色,增加影视剧情的互动性和多变性。
附图说明
[0038]图1是本申请中在互动影视场景中的角色生成流程示意图。
[0039]图2是本申请中在互动影视场景中的角色生成数据传递结构示意图。
[0040]图3是本申请中在互动影视场景中的角色生成装置示意图。
具体实施方式
[0041]下面结合附图和具体实施例对本申请作进一步说明,以使本领域的技术人员可以更好地理解本申请并能予以实施。
[0042]以下内容均是为了详细说明本申请要保护的技术方案所提供的具体实施过程的示例,但是本申请还可以采用不同于此的描述的其他方式实施,本领域技术人员可以在本申请构思的指引下,采用不同的技术手段实现本申请,因此本申请不受下面具体实施例的限制。
[0043]本申请提供的一种在互动影视场景中的角色生成方法,包括:实时获取角色第一信息、第二信息和第三信息;根据所述第一信息生成声音信息、根据所述第二信息生成外形信息和根据所述第三信息生成行为信息;根据所述声音信息、外形信息和行为信息生成角色。本申请通过实时互动影视的过程中生成自定义角色,增加影视剧情的互动性和多变性。
[0044]请参照图1和图2所示,本申请提供的一种在互动影视场景中的角色生成方法,基
于信息采集、处理,结合自定义设置生成自定义角色。该方法步骤包括:
[0045]如图1所示,S101实时获取角色第一信息、第二信息和第三信息。
[0046]一、通过声音传感器获取所述第一信息。
[0047]使用声音传感器来捕获环境中的语音数据。传感器可以是麦克风或其他音频设备。
[0048]将捕获的语音数据进行音频处理,以去除噪音和进行必要的预处理。通过降噪算法、滤波器和其他音频处理技术来实现。
[0049]从预处理的语音数据中提取有用的特征。这些特征包括频谱信息、音调、音量、语速等。例如,使用数字信号处理(DSP)技术和机器学习算法来提取和分析这些特征。
[0050]使用自然语言处理(NLP)技术将提取的声音特征转化为文本形式的第一信息。
[0051]二、通过视频传感器获取所述第二信息。
[0052]使用视频传感器(例如摄像头)来捕获环境中的视频数据。
[0053]对捕获的视频数据进行处理和预处理,包括去噪、图像增强、边缘检测等处理步骤,以提高图像质量和准确性。
[0054]使用计算机视觉技术从预处理的视频数据中提取有关外形信息的特征,包括:人物的身高、体态、头发颜色、眼睛颜色等。通过使用图像处理和计算机视觉算法,实现特征提取。
[0055]将提取的特征与预定义的模式或特征匹配进行本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.一种在互动影视场景中的角色生成方法,其特征在于,包括:实时获取角色第一信息、第二信息和第三信息;根据所述第一信息生成声音信息、根据所述第二信息生成外形信息和根据所述第三信息生成行为信息;根据所述声音信息、外形信息和行为信息生成角色。2.根据权利要求1所述在互动影视场景中的角色生成方法,其特征在于,所述实时获取角色第一信息、第二信息和第三信息,包括:通过声音传感器获取所述第一信息;通过视频传感器获取所述第二信息;通过剧情场景信息和编辑信息生成所述第三信息。3.根据权利要求2所述在互动影视场景中的角色生成方法,其特征在于,生成所述第三信息,采用生成对抗网络,包括:对所述剧情场景信息和编辑信息进行清理、特征提取和标准化;使用生成对抗网络建立模拟角色行为的生成模型,包括由生成器和判别器组成,生成器负责生成模拟信息,判别器则判断模拟信息与真实信息之间的差异;使用所述剧情场景信息和编辑信息训练生成模型;利用训练好的生成模型生成新的模拟角色行为信息。4.根据权利要求1~3任一项所述在互动影视场景中的角色生成方法,其特征在于,还包括:根据所述剧情信息对未来发生的剧情进行的决策。5.根据权利要求4所述在互动影视场景中的角色生成方法,其特征在于,所述决策,采用生成式AI进行。6.一种在互动影视场景中的角色生成装置,其特征在于,...
【专利技术属性】
技术研发人员:张铮,郭建君,
申请(专利权)人:北京蔚领时代科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。