本发明专利技术提供了一种面向智能机器人的背景配音输出方法,其包括以下步骤:判断要输出的语音内容的类型;获取与所述类型相匹配的背景配音音频数据;输出语音内容的同时播放背景配音音频数据。根据本发明专利技术的背景配音输出方法能够让使用者对机器将文本转换到语音的体验更加真实,背景配音的播放能够让人有身临其境的感觉,让表达更为生动。
【技术实现步骤摘要】
本专利技术涉及智能机器人领域,具体地说,涉及一种面向智能机器人的背景配音输出方法及装置。
技术介绍
当前的机器人聊天主要是,计算机根据交互的结果,利用TTS技术将系统要输出的文本进行语音转换,然后再播放出来。然而,这种聊天交互模式并不能够让用户感觉到真实的体验。为了让用户能够有身临其境的体验,需要一种能够不断提高智能机器人的交互能力从而提升用户进体验的技术方案。
技术实现思路
本专利技术的目的在于提供一种面向智能机器人的背景配音输出方法来解决上述技术问题。在本专利技术的方法中,其包括以下步骤:判断要输出的语音内容的类型;获取与所述类型相匹配的背景配音音频数据;输出语音的同时播放背景配音音频数据。根据本专利技术的面向智能机器人的背景配音输出方法,优选的是,在输出语音的同时并在触发条件满足的情况下播放背景配音音频数据,其中,触发条件包括以下几种情形:当接收到用户输入的特定语句时,触发背景配音的播放;在系统中自动设定播放背景配音的播放起止时间;在播放文本数据对应的语音的时播放背景配音。根据本专利技术的面向智能机器人的背景配音输出方法,优选的是,在判断要输出的语音内容的类型步骤中,根据当前应用,判断要输出的语音内容的类型。根据本专利技术的面向智能机器人的背景配音输出方法,优选的是,通过对话框界面接收要输出语音对应的文本数据。根据本专利技术的另一个方面,还提供了一种面向智能机器人的背景配音输出装置,所述装置包括以下步骤:文本数据接收单元,其用以接收要输出的语音对应的文本数据,并分析所述文本数据的语义;背景配音搜索单元,其用以根据所述文本数据代表的语义内容所属的类型在资料库中搜索与之相匹配的背景配音音频数据;音频输出单元,输出文本数据对应的语音的同时并在触发条件满足的情况下播放背景配音音频数据。根据本专利技术的面向智能机器人的背景配音输出装置,优选的是,在用以输出文本数据对应的语音的同时并在触发条件满足的情况下播放背景配音音频数据的音频输出单元中,触发条件包括以下几种情形:当接收到用户输入的特定语句时,触发背景配音的播放;在系统中自动设定播放背景配音的播放起止时间;在播放文本数据对应的语音的时播放背景配音。根据本专利技术的面向智能机器人的背景配音输出装置,优选的是,在用以根据所述文本数据代表的语义内容所属的类型在资料库中搜索与之相匹配的背景配音音频数据的背景配音搜索单元中,还包括判断单元,其用以判断要输出文本数据对应的语音类型,以确定与之匹配的背景音乐。根据本专利技术的面向智能机器人的背景配音输出装置,优选的是,通过对话框界面接收要输出语音对应的文本数据。本专利技术的有利之处在于,通过实现本专利技术的方法可以大大提高智能机器人与人之间的交互能力,从而提升用户的体验。具体的说,根据本专利技术的背景配音输出方法能够让使用者对机器将文本转换到语音的体验更加真实,背景配音的播放能够让人有身临其境的感觉,让表达更为生动。本专利技术的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本专利技术而了解。本专利技术的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。附图说明附图用来提供对本专利技术的进一步理解,并且构成说明书的一部分,与本专利技术的实施例共同用于解释本专利技术,并不构成对本专利技术的限制。在附图中:图1为根据本专利技术的一个实施例的面向智能机器人的背景配音输出方法的总体流程图图2为根据本专利技术的一个实施例的面向智能机器人的背景配音输出方法的详细流程图;图3为根据本专利技术的一个实施例的触发面向智能机器人的背景配音输出方法的触发过程流程图;以及图4为根据本专利技术的一个实施例的面向智能机器人的背景配音输出装置的结构框图。具体实施方式为使本专利技术的目的、技术方案和优点更加清楚,以下结合附图对本专利技术实施例作进一步地详细说明。如图1所示,其中显示了根据本专利技术进行背景配音的总体流程图。在该方法中,首先进行文本输入,例如通过机器人的文本扫描器等获得用户的输入,或者通过屏幕触摸的方式获取用户的输入。机器人获得了文本输入结果后,进行文本分析和语音合成。最后进行语音输出,输出的语音包含了TTS处理的结果以及所选择出来的背景配音。这些技术的细节下文将会详细介绍。如图2所示,其中显示了一种面向智能机器人的背景配音输出方法的总体流程图。方法开始于步骤S101。在该步骤中,系统判断要输出的语音内容的类型。在智能机器人与人进行交互时,通常会首先接收用户的交互指令,或者在某些条件满足时,主动发出聊天语音。根据本专利技术的机器人系统在内部接收要输出的语音对应的文本数据,并分析所述文本数据的语义。例如,经过分析得到文本数据的语义代表的内容是诗歌朗诵、童话等。系统根据不同的语音内容的不同分类用标签进行标记。根据针对语音内容的标记来判断是诗歌或者童话。优选的是,在对文本数据进行分析时,还包括以下步骤:文本结构检测步骤,根据标点符号、文本规范化规则、分词和词性标注、停顿处理以及字音转换对输入的文本结构进行检测;韵律产生步骤,根据文本分析获得的上下文信息来获得表征韵律特征的参数;单元选择步骤,根据待合成的音素串以及它的上下文信息、韵律特征参数,并遵照特定准则,从语料库中选择一组最佳的语音单元作为合成基元进行波形拼接。在一个实施例中,系统可以通过对话框界面来接收要输出语音对应的文本数据。在本专利技术的TTS处理中,需要首先对文本进行分析。开始时,系统需要先认识文字,进行合理分词,以及判断何处有停顿等。机器发音还需要产生一定的韵律产生。表征韵律特征的参数包括例如基频、时长和能量。而本专利技术中产生韵律所利用的数据是从文本分析部分获得的上下文信息。在TTS处理中,需要进行单元选择以选出最合适的语音单元来进行语音合成。具体说,系统根据待合成的拼音串(音素串)以及它的上下文信息、韵律信息,遵循某一准则,从语料库中挑选一组最佳的语音单元作为合成基元用于波形拼接,这里的准则其实就是使某一代价函数的值为最小。这个代价函数的值将受到某些因素的影响,比如:韵律的不一致、谱差异和上下文环境的不匹配等。TTS系统的最后一个处理模块为波形合成单元。在进行波形合成时,通常采用两种策略,一是拼接时不需要韵律修改,另一是需要韵律修改。以上大致介绍了TTS系统从文本到语音的处理过程。而在本专利技术中,经过TTS处理后的语音并不一定直接输出。还需要接下来的处理。如图2所示,在步骤S102中,获取与所述类型相匹配的背景配音音频数据。当前一步骤中得到的结果是语音内容为诗歌朗诵,则系统会在存储库里搜寻与该诗歌匹配的背景音乐。例如,智能机器人通过进一步分析语义之后,大致了解了诗歌的风格后,通过已设定的标签分类对其进一步进行标记。然后通过该标记在存储库中不同的子库中搜索与该标记对应的背景配音。例如针对豪放派的诗歌朗诵将配以雄壮的音乐。例如,诗歌内容是歌颂祖国的,则在由“共和国之恋、我像雪花天上来、红旗颂、长征交响曲、长征交响曲、义勇军进行曲、五星红旗、黄河钢琴协奏曲、乡之音、乡之音、乡之音、十送红军配乐、青春中国配乐、黄河号子、我和我的祖国、长城谣、黄河牵着我的手、江山无限、爬雪山、同一首歌、长江之歌”等类歌曲构成的子库中进行搜索。如果诗歌内容是歌手亲情乡情的,则在由“白发亲娘、大别山、老父亲、妈妈的歌谣、母亲、那就是我、前门大碗茶本文档来自技高网...
【技术保护点】
一种面向智能机器人的背景配音输出方法,其特征在于,所述方法包括以下步骤:判断要输出的语音内容的类型;获取与所述类型相匹配的背景配音音频数据;输出语音内容的同时播放背景配音音频数据。
【技术特征摘要】
1.一种面向智能机器人的背景配音输出方法,其特征在于,所述方法包括以下步骤:判断要输出的语音内容的类型;获取与所述类型相匹配的背景配音音频数据;输出语音内容的同时播放背景配音音频数据。2.如权利要求1所述的面向智能机器人的背景配音输出方法,其特征在于,在输出语音的同时并在触发条件满足的情况下播放背景配音音频数据,其中,触发条件包括以下几种情形:当接收到用户输入的特定语句时,触发背景配音的播放;在系统中自动设定播放背景配音的播放起止时间;在播放文本数据对应的语音的时播放背景配音。3.如权利要求1所述的面向智能机器人的背景配音输出方法,其特征在于,在判断要输出的语音内容的类型步骤中,根据当前应用判断要输出的语音内容的类型。4.如权利要求1所述的面向智能机器人的背景配音输出方法,其特征在于,通过对话框界面接收要输出语音对应的文本数据。5.一种面向智能机器人的背景配音输出装置,其特征在于,所述装置包括以下单元:文本数据接收单元,其用以接收要输出的语音对应的文本数据,并分析所述文本数据的语义...
【专利技术属性】
技术研发人员:谢文静,
申请(专利权)人:北京光年无限科技有限公司,
类型:发明
国别省市:北京;11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。