The invention relates to the technical field of computer, and provides a content output method matched with a user's emotion, an electronic device and a server. Among them, including the content and output method, user emotion: information acquisition behavior of the user; according to the analysis of user behavior information retrieval and the emotional state; emotional state matching; output and the emotional state matching content. The embodiment of the invention can according to the user's emotional state and emotional state of the child push relevant content, and can interact with the user, to guide the user to happy state change, not just according to the user's operation output corresponding to the content, can realize the artificial intelligence with effect.
【技术实现步骤摘要】
一种与用户情绪匹配的内容输出方法、电子设备及服务器
本专利技术涉及计算机
,尤其涉及一种与用户情绪匹配的内容输出方法、电子设备及服务器。
技术介绍
电子玩具是一种运用电子技术、采用电子元器件来控制动作或产生各种声光效果的机动玩具,按产品的工艺技术及功能结构可分为声控玩具、光控玩具、遥控玩具、机械玩具、气动玩具、电动玩具等。目前,大部分电子玩具都是通过接收用户的操作,然后对该操作做出回应,如电子玩具接收用户按压控制按钮后,向用户输出一首儿歌;再如电子玩具接收到用户通过遥控器发射的红外信号时,往预设方向移动,等等。这些电子玩具能够给孩子们带来极大的乐趣。上述电子玩具的内容输出方式存在的问题是,无法根据孩子的情绪状态推送与孩子情绪状态相应的内容,不能达到真实的人在孩子身边的陪伴效果。
技术实现思路
本专利技术实施例公开了一种与用户情绪匹配的内容输出方法、电子设备及服务器,能够推送与用户情绪同步的内容。本专利技术实施例技术方案如下:(1)一种与用户情绪匹配的内容输出方法,包括:获取用户的行为信息;根据所述行为信息分析用户的情绪状态;调取与所述情绪状态相匹配的内容;输出与所述情绪状态相匹配的内容。进一步地,所述用户的行为信息包括语音和/或面部表情和/或语句和/或词语。进一步地,所述语音包括语速和/或音调和/或音量信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息。进一步地,所述根据所述行为信息分析用户的情绪状态具体为:分析语音的语速和/或音调和/或音量;将所述分析出的语速和/或音调和/或音量与预存储的不同情绪的语速和/或音调和/或音量表匹配 ...
【技术保护点】
一种与用户情绪匹配的内容输出方法,其特征在于,包括:获取用户的行为信息;根据所述行为信息分析用户的情绪状态;调取与所述情绪状态相匹配的内容;输出与所述情绪状态相匹配的内容。
【技术特征摘要】
1.一种与用户情绪匹配的内容输出方法,其特征在于,包括:获取用户的行为信息;根据所述行为信息分析用户的情绪状态;调取与所述情绪状态相匹配的内容;输出与所述情绪状态相匹配的内容。2.如权利要求1所述的与用户情绪匹配的内容输出方法,其特征在于,所述用户的行为信息包括语音和/或面部表情和/或语句和/或词语。3.如权利要求1所述的与用户情绪匹配的内容输出方法,其特征在于,所述语音包括语速和/或音调和/或音量信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息;所述根据所述行为信息分析用户的情绪状态具体为:分析语音的语速和/或音调和/或音量;将所述分析出的语速和/或音调和/或音量与预存储的不同情绪的语速和/或音调和/或音量表匹配,获取分析出的语速和/或音调和/或音量所属的情绪状态;或者,所述面部表情包括面部特征信息,所述获取用户的行为信息具体为通过拍摄用户的面部图像获取用户的行为信息;所述根据所述行为信息分析用户的情绪状态具体为:分析所述面部图像中的面部特征信息;将所述分析出的面部特征信息与预存储的不同情绪的面部特征信息表匹配,获取分析出的面部特征信息所属的情绪状态;或者,所述语句包括语意信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息;所述根据所述行为信息分析用户的情绪状态具体为:分析语句的关键词汇;将所述分析出的关键词汇与预存储的不同情绪的关键词汇表匹配,获取分析出的关键词汇所属的情绪状态。4.如权利要求1所述的与用户情绪匹配的内容输出方法,其特征在于,所述情绪状态包括多个级别;所述方法还包括:判断用户是否在超过持续预定时间处于同一情绪状态和/或上一级情绪状态;若是,则调取与用户当前情绪状态的上一级情绪状态相匹配的内容;输出与用户当前情绪状态的上一级情绪状态相匹配的内容。5.一种与用户情绪匹配的内容输出的电子设备,其特征在于,包括:行为信息获取模块,用于获取用户的行为信息;情绪状态分析模块,用于根据所述行为信息分析用户的情绪状态;内容调取模块,用于调取与所述情绪状态相匹配的内容;内容输出模块,用于输出与所述情绪状态相匹配的内容。6.一种与用户情绪匹配的内容输出的电子设备,其特征在于,包括:行为信息获取模块,用于获取用户的行为信息;情绪状态分析模块,用于根据所述行为信息分析用户的情绪状态;内容调取模块,用于调取与所述情绪状态相匹配的内容;内容输出模块,用于输出与所述情绪状态相匹配的内容;所述用户的行为信息包括语音和/或面部表情和/或语句和/或词语;所述语音包括语速和/或音调和/或音量信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行...
【专利技术属性】
技术研发人员:欧鸿达,
申请(专利权)人:深圳新创客电子科技有限公司,
类型:发明
国别省市:广东,44
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。