本发明专利技术公开了一种基于表情识别的输入方法,包括:利用摄像装置采集影像;使用参考模板法、人脸规则法、样品学习法、肤色模型法、或特征子脸法识别出所述人脸并定位轮廓;使用主成分分析法、或Gabor小波法从所述人脸中抽取出表情特征;使用基于模板的匹配方法、基于神经网络的方法、或基于支持向量机的方法从所述表情特征得到所述表情的分类;匹配步骤,将所述分类与相应的输入结果相匹配;输入步骤,使用所述输入结果进行输入。
【技术实现步骤摘要】
本专利技术涉及输入方法,特别涉及基于表情识别的输入方法。
技术介绍
目前,在例如移动电话、个人数字助理、电视机、个人电脑等电子设备中输入表情信息,主要有如下方法。最原始的方法是通过文字来描述特定表情,例如用户输入文本“微笑”或“愤怒” 等,用于描述特定类型的表情。还有使用标点符号组合的方法。通过标点符号表达特定表情是指用户通过输入一系列标点符号,组合出具有象形意义的表情符号,例如“~_~”。但是,上述的直接输入表示表情的文本信息的方法,存在输入方式单一、表现形式呆板等问题。而标点符号组合的方法则存在输入操作繁琐、传递表情种类不够丰富或不够准确的问题。相对上述两种方法,各方面表现更佳的有使用表情图片的方法。具体地说,是在移动电话、电脑等即时通讯设备或QQ、微软网络服务(MSN :Microsoftkrvice Network)等通讯软件系统中,提供表情图片选择框,用户选择表情图片选择框中合适的表情图片进行点击,则该表情图片将被输出到显示终端或输出到其他输出设备。但该方法仍然存在操作繁琐的问题。另外,还有利用面部表情识别来进行表情信息输入的方法,即根据识别到的用户面部表情,输出相应的信息到显示终端或其他输出设备。该方法多用于设备控制、信息输入、安全认证等领域。但目前这种方法的局限性在于,通过预先采样来实现人脸表情匹配与识别,因此通用性较低,无法适用于不特定人物的表情识别及表情信息输入的情形。
技术实现思路
鉴于上述输入方法存在的问题,本专利技术的目的在于提供一种操作方便、通用性好、 能够适用于不特定人物的表情信息的输入方法。为了实现上述目的,根据本专利技术的基于表情识别的输入方法,包括采集步骤,利用摄像装置采集影像;识别及分类步骤,从所述影像中识别出人脸并进行表情特征的抽取而得到所述表情的分类;匹配步骤,将所述分类与相应的输入结果相匹配;输入步骤,使用所述输入结果进行输入。而且,在上述的基于表情识别的输入方法,其特征在于所述识别及分类步骤包括 使用参考模板法、人脸规则法、样品学习法、肤色模型法、或特征子脸法识别出所述人脸并定位轮廓;使用主成分分析法、或伽柏(Gabor)小波法从所述人脸中抽取出表情特征;使用基于模板的匹配方法、基于神经网络的方法、或基于支持向量机的方法从所述表情特征得到所述表情的分类。而且,在上述的基于表情识别的输入方法,其特征在于以预定的时间间隔反复地依次执行所述采集步骤、识别及分类步骤、匹配步骤;在匹配步骤之前还包括判断步骤,判断所述的分类是否与一个时间间隔之前的表情的分类相同,如果相同,则不执行后续的所述匹配步骤,而直接在下一个时间间隔返回所述采集步骤。 而且,在上述的基于表情识别的输入方法,其特征在于在所述匹配步骤中,将所述分类匹配到在预定的输入格式中预先定义的多个输入结果中与所述分类相应的输入结果。而且,在上所述的基于表情识别的输入方法,其特征在于所述预定的输入格式为文本格式、图片格式、符号组合格式、视频格式、音频格式中的一个。而且,在上述的基于表情识别的输入方法,其特征在于在所述匹配步骤中,从由文本格式、图片格式、符号组合格式、视频格式、音频格式中的一种或多种组成的输入格式中选择一种输入格式,并将所述分类匹配到在所选择的输入格式中预先定义的多个输入结果中与所述分类相应的输入结果。而且,在上述的基于表情识别的输入方法,其特征在于还包括对由文本格式、图片格式、符号组合格式、视频格式、音频格式中的一种或多种组成的输入格式进行包括删除、修改或增加的编辑处理。而且,在上述的基于表情识别的输入方法,其特征在于还包括对由高兴、生气、吃惊、及恐惧中的一个或多个组成的输入结果进行包括删除、修改或增加的编辑处理。根据本专利技术的基于表情识别的输入方法,能够提供一种操作方便、通用性好、能够适用于不特定人物的表情信息的输入方法。附图说明通过下面结合附图进行的描述,本专利技术的上述和其他目的和特点将会变得更加清楚,其中图1是表示根据本专利技术实施方式的基于表情识别的输入方法的步骤的流程图;图2是为了说明表情类型、输入格式、以及输入结果的表格。图3是表示一例输入结果的图。主要符号说明S1010-S1080为步骤。具体实施方式以下,参照附图来详细说明本专利技术的实施例。(实施方式)图1是表示根据本实施方式的基于表情识别的输入方法的步骤的流程图。如图1所示,根据本实施方式的基于表情识别的输入方法可大致分为四个模块, 细分为八个步骤,其中步骤S1010构成影像采集模块101,步骤S1020-S1040构成表情识别与分类模块102,步骤S1050-S1070构成输入结果匹配模块103,步骤S1080构成输入模块。 具体的步骤如下。在步骤S1010,启动了输入法后,利用摄像装置对用户脸部进行摄像并以固定时间间隔At,例如以0. 1秒间隔采集影像信号。其中,摄像装置被安装在用户操作设备上,或者作为一个独立的设备。接着在步骤S1020,利用影像信号识别出该影像中的人脸并定位轮廓,得到影像中人脸数量、轮廓、主次关系等信息。其中,关于人脸识别和定位的方法,现有的技术有参考模板法、人脸规则法、样品学习法、肤色模型法、特征子脸法等。接着在步骤S1030,利用在步骤S1020中识别到的人脸及轮廓定位结果,进行人脸表情特征的抽取。关于人脸表情特征抽取方法的现有技术有主成分分析法、Gabor小波法寸。接着在步骤S1040,利用在步骤S1030抽取到的人脸的表情特征,将该表情分类为比如高兴、生气、吃惊、未识别等。人脸表情分类方法的现有技术主要有基于模板的匹配方法、基于神经网络的方法、基于支持向量机的方法等。接着在步骤S1050,判断在步骤S1040得到的分类结果是否为“未识别”,如果是 (步骤S1050 “是”),则放弃该次采集到的影像信息,返回步骤S1010。如果分类结果不是“未识别”(步骤S1050 “否”),则接着在步骤S1060,继续判断该分类结果是否与前一时间间隔采集到的表情的分类结果一致。如果一致(步骤S1060: “是”),则说明用户表情在时间间隔At(At = t2_tl,其中,t2为该次影像采集时间,tl为上次影像采集时间)内未发生变化,无需重新输入,因此返回步骤S1010。如果不一致(步骤S1060 “否”),则接着在步骤S1070,选择输入格式,并将分类结果与所选择的输入格式中相应的输入结果进行匹配。其中,输入格式为预先定义的若干种输入格式,包括文本、图片、符号组合等。图2是为了说明表情类型、输入格式、以及匹配的输入结果的表格。例如,假设表情类型是高兴,输入格式是图片,则匹配的输入结果为表格中第三列第四行所示的图片。接着在步骤S1080,将在步骤S1070中得到的输入结果输入到本实施方式的输入方法所针对的系统进行显示,该系统包括移动电话、个人数字助理、电视机、个人电脑的显示屏。甚至该输入结果还可以直接输入到网络接口并通过网络传输出去,或应用于设备控制、信息输入、安全认证等领域。如上所述,根据本实施方式的基于表情识别的输入方法,对采集到的用户自然的表情进行识别及分析而得到表情的分类,无需预先对特定用户的表情进行采样并通过与采样表情进行比较,因此能够适用于不特定用户的表情识别及表情信息的输入,能够提高基于表情识别的输入方法的通用本文档来自技高网...
【技术保护点】
1.一种基于表情识别的输入方法,包括:采集步骤,利用摄像装置采集影像;识别及分类步骤,从所述影像中识别出人脸并进行表情特征的抽取而得到所述表情的分类;匹配步骤,将所述分类与相应的输入结果相匹配;输入步骤,使用所述输入结果进行输入。
【技术特征摘要】
1.一种基于表情识别的输入方法,包括采集步骤,利用摄像装置采集影像;识别及分类步骤,从所述影像中识别出人脸并进行表情特征的抽取而得到所述表情的分类;匹配步骤,将所述分类与相应的输入结果相匹配;输入步骤,使用所述输入结果进行输入。2.如权利要求1所述的基于表情识别的输入方法,其特征在于所述识别及分类步骤包括使用参考模板法、人脸规则法、样品学习法、肤色模型法、或特征子脸法识别出所述人脸并定位轮廓;使用主成分分析法、或伽柏(Gabor)小波法从所述人脸中抽取出表情特征;使用基于模板的匹配方法、基于神经网络的方法、或基于支持向量机的方法从所述表情特征得到所述表情的分类。3.如权利要求1所述的基于表情识别的输入方法,其特征在于以预定的时间间隔反复地依次执行所述采集步骤、识别及分类步骤、匹配步骤;在匹配步骤之前还包括判断步骤,判断所述的分类是否与一个时间间隔之前的表情的分类相同,如果相同,则不执行后续的所述匹配步骤,而直接在下一个时间间隔返回所述采集步骤。4.如权利要求1所述的...
【专利技术属性】
技术研发人员:杜乐,谢林,朱昊亮,
申请(专利权)人:三星电子中国研发中心,三星电子株式会社,
类型:发明
国别省市:84
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。