提供一种用于生成包括关于多媒体内容的用户的印象的情绪信息或者有关所述情绪信息的元数据的方法和设备,和存储所述方法的计算机可读记录介质。所述元数据生成方法包括:从接收和再现内容的至少一个客户系统接收关于内容的情绪信息;使用所述情绪信息生成情绪的元数据;和将情绪的元数据结合到所述内容。由此,可以通过使用正在欣赏多媒体内容的用户的脸部表情来自动地取得情绪信息,并且将所述情绪信息作为元数据使用。
【技术实现步骤摘要】
与本专利技术相一致的方法和设备涉及内容的元数据,更具体地讲,涉及生 成包括用户对多媒体内容的印象的情绪信息或者有关情绪信息的元数据。已经广泛地普及了提供多媒体内容的在线服务。然而,在用户欣赏内容 后有关用户的情绪、感情等的反馈取决于用户自愿提供信息。因此,难于在 用户欣赏内容后获得用户的情绪信息。虽然用户提供他或她的情绪信息,但是不能够确保信息的准确性或客观性。本专利技术提供一种用于自动地取得关于用户欣赏的内容的用户的情绪信息 并且将所述情绪信息反映在所述内容的元信息中的方法和设备,和存储所述 方法的计算机可读记录介质。根据本专利技术的一方面,提供一种生成内容的元数据的方法,包括从接 收和再现内容的至少一个客户系统接收关于内容的情绪信息;使用所述情绪 信息生成情绪的元数据;和将情绪的元数据结合到所述内容。所述生成情绪的元数据的步骤包括确定代表所述内容的情绪的代表类型。所述生成情绪的元数据的步骤包括在内容的再现期间,为每个预定时 间周期确定情绪的代表类型。所述将情绪的元数据结合到所述内容的步骤包括将情绪的元数据添加到
技术介绍
技术实现思路
奮景的情绪的代表类型。内容的现有元数据。所述添加情绪的元数据的步骤包括如果所述内容是广播节目,则将所 述情绪的元数据添加到所述广播节目的电子节目指南(EPG )。所述添加情绪的元数据的步骤包括将所述情绪的元数据添加到所述内容 的头标信息。所述方法还包括在将所述内容提供给所述至少一个客户系统之前,将 关于取得用户图像要求的时间的信息添加到所述内容的元数据,以便允许所 述至少一个客户系统取得情绪信息。根据本专利技术的另一方面,提供一种生成关于内容的情绪信息的方法,包 括当再现内容时,取得用户图像;从用户图像提取脸部信息;通过将脸部 信息与脸部表情模板信息相比较,生成关于内容的情绪信息;和将情绪信息 发送给提供内容的服务器。所述取得用户图像的步骤包括每当再现内容的每个情景时取得所述用 户图像。所述取得用户图像的步骤包括当再现内容时,从图像输入单元接收至 少两个用户图像。所述生成情绪信息的步骤包括生成代表从所述至少两个用户图像生成 的情绪信息的代表情绪信息。所述取得用户图像的步骤包括在与包括在内容的元数据中的情绪信息 取得时间相对应的时间取得所述用户图像。所述生成情绪信息的步骤包括如果多项脸部信息从用户图像被提取, 则生成与所述脸部信息的每项相应的情绪信息。所述生成情绪信息的步骤包括参照脸部表情模板信息,当取得用户图 像时,生成包括情绪的类型和强度的情绪信息。根据本专利技术的另一方面,提供一种用于生成内容的元数据的设备,包括 通信单元,从接收和再现内容的至少一个客户系统接收关于内容的情绪信息; 和元数据生成单元,使用情绪信息生成情绪的元数据,并且将情绪的元数据 结合到所述内容。根据本专利技术的另 一方面,提供一种用于生成关于内容的情绪信息的设备, 包括图像输入单元,当再现内容时,取得用户图像;脸部图像提取单元, 从用户图像提取脸部信息;情绪信息生成单元,将脸部信息与脸部表情模板信息相比较,并且基于比较的结果生成关于内容的情绪信息;和通信单元,将情绪信息发送给提供内容的服务器。当欣赏内容(如电影、音乐或运动画面)时观看内容的观众的反应通过 他们的表情表现出来。特别地,通过分析用户的表情可以客观地辨别相应内 容生产者是否根据用户的意图激发用户的情绪。本专利技术使用用户(使用内容 的用户)的表情信息生成情绪信息,并且将所述情绪信息提供给相应内容生 产者,从而允许用户的情绪信息被使用为相应内容的元数据。此后,示出内 容(如电影或运动画面)被再现的情形,然而,本专利技术不限于此。本专利技术还 可被应用于不同类型的内容。附图说明通过下面结合附图对本专利技术的示例性实施例进行的详细描述,本专利技术的上述和其他方面将会变得更加清楚,其中图1是^^艮据本专利技术的示例性实施例的情绪信息生成设备的方框图2是根据本专利技术的示例性实施例的情绪信息生成方法的流程图3是示出根据本专利技术的示例性实施例的脸部表情模板信息的示图4是列出根据本专利技术的示例性实施例的情绪信息的类型的表;图5是示出根据本专利技术的示例性实施例生成的情绪信息的示图6是根据本专利技术的另一示例性实施例的情绪信息生成方法的流程图7是解释根据本专利技术的示例性实施例的在内容提供者和内容接收者之间的关系的示图;和具体实施例方式图1是根据本专利技术的示例性实施例的情绪信息生成设备的方框图。 参照图1,情绪信息生成设备100包括图像输入单元110,用于取得被 照相机等拍摄的用户(或多个用户)的图像;存储单元130,用于存储脸部 表情模板信息132和用户的情绪信息134,在所述脸部表情模板信息132中 人的各种脸部表情被创建为模板;和控制单元120,包括脸部图像提取单元 122、脸部图像规范化单元124和情绪信息生成单元126,在再现内容时,控制不同的部件生成用户的情绪信息。图像输入单元110接收通过使用照相机等来拍摄欣赏内容的用户而获得 的用户图像。在预定的时间取得用户图像。根据不同的方法,对于内容的每 项可以取得两个或更多用户图像,并且可以以秒、分钟等为单位周期性地或 者每当内容的情景改变时取得用户图像。可以通过解释预存在情绪信息生成 设备100中的时间信息、从内容提供者接收的时间信息或包括在内容的元数 据中的情绪信息取得时间信息来识别用于取得用户图像的预定时间。脸部图像提取单元122从用户图像提取脸部图像信息。为了从用户图像 提取脸部图像信息,可以使用Gabor滤波器响应。在多个脸部图像从多个用 户图像被提取的情况下,对应于每个脸部图像的情绪信息被生成。脸部图像 规范化单元124根据包括在脸部表情模板信息132中的模板的大小调整被提 取的脸部图像。情绪信息生成单元126通过模板匹配来确定用户的脸部表情,并且根据 用户的脸部表情生成和输出情绪信息。如果多个脸部图像被从(多个)用户 图像提取,则生成包括人数和各人脸部表情信息的情绪信息。如果取得两个 或更多用户图像,然后取得对于同一用户的两个或更多脸部表情图像,则生 成多项情绪信息。在这种情况下,可生成多项情绪信息的代表情绪信息。此 时,在多项情绪信息当中用户最常具有的情绪的类型可以被确定为情绪的代 表类型。然而,本专利技术并不限于此,根据应用,各种方法可被使用。所述情 绪信息被用作相应内容的元数据,并且可通过各种方法被统计地处理或集成。 例如,输出包括对于内容的每个情景的情绪的代表类型的数据或者包括个人 情绪信息的数据。此外,所述情绪信息可进一步包括有关情绪的强度 (strength)以及情绪的类型的信息。图2是根据本专利技术的示例性实施例的情绪信息生成方法的流程图。参照图2,首先,再现内容(操作202)。当再现内容时,在预定时间取 得用户图像(操作204)。然后,从取得的用户图像仅提取脸部图像部分,从 而生成脸部信息(操作206)。将所述脸部信息与存储在存储单元130中的脸 部表情模板信息相比较,以便获得匹配的脸部表情,然后生成用于匹配的脸 部表情的情绪信息(操作208 )。所述情绪信息可以被存储在存储单元130中, 被发送给内容提供服务器,或者被附加地记录在内容的元数据中。图3是示出根据本专利技术的示例性实施例的脸部表情模板信息的示图。参照图3,与代表中本文档来自技高网...
【技术保护点】
一种生成内容的元数据的方法,所述方法包括:从接收和再现内容的至少一个客户系统接收关于内容的情绪信息;使用所述情绪信息生成情绪的元数据;和将情绪的元数据结合到所述内容。
【技术特征摘要】
KR 2006-10-27 10-2006-01052701、一种生成内容的元数据的方法,所述方法包括从接收和再现内容的至少一个客户系统接收关于内容的情绪信息;使用所述情绪信息生成情绪的元数据;和将情绪的元数据结合到所述内容。2、 如权利要求l所述的方法,其中,所述生成情绪的元数据的步骤包括 确定代表所述内容的情绪的代表类型。3、 如权利要求l所述的方法,其中,所述生成情绪的元数据的步骤包括 确定代表内容的每个情景的情绪的代表类型。4、 如权利要求1所述的方法,其中,所述生成情绪的元数据的步骤包括 在内容的再现期间,为每个预定时间周期确定情绪的代表类型。5、 如权利要求l所述的方法,其中,所述将情绪的元数据结合到所述内 容的步骤包括将情绪的元数据添加到内容的现有元数据。6、 如权利要求5所述的方法,其中,所述添加情绪的元数据的步骤包括 如果所述内容是广播节目,则将所述情绪的元数据添加到所述广播节目的电 子节目指南。7、 如权利要求5所述的方法,其中,所述添加情绪的元数据的步骤包括 将所述情绪的元凄t据添加到所述内容的头标信息。8、 如权利要求l所述的方法,还包括在将所述内容提供给所述至少一 个客户系统之前,将关于取得用户图像要求的时间的信息添加到所述内容的 元数据,以便允许所述至少一个客户系统取得情绪信息。9、 一种存储用于执行生成内容的元数据的方法的计算机程序的计算机可 读记录介质,所述方法包括从接收和再现内容的至少 一个客户系统接收关于内容的情绪信息; 使用所述情绪信息生成情绪的元数据;和 将情绪的元数据结合到所述内容。10、 一种生成关于内容的情绪信息的方法,所述方法包括 当再现内容时,取得用户图像;从用户图像提取脸部信息;通过将脸部信息与脸部表情模板信息相比较,生成关于内容的情绪信息;和将情绪信息发送给提供内容的服务器。11、 如权利要求IO所述的方法,其中,所述取得用户图像的步骤包括 每当再现内容的每个情景时取得所述用户图像。12、 如权利要求IO所述的方法,其中,所述取得用户图像的步骤包括: 当再现内容时,从图像输入单元接收至少两个用户图像。13、 如权利要求12所述的方法,其中,所述生成情绪信息的步骤包括: 生成代表从所述至少两个用户图像生成的情绪信息的代表情绪信息。14、 如权利要求IO所述的方法,其中,所述取得用户图像的步骤包括: 在与包括在内容的元数据中的情绪信息取得时间相对应的时间取得所述用户 图像。15、 如权利要求IO所述的方法,其中,所述生成情绪信息的步骤包括: 如果多项脸部信息从用户图像被提取,则生成与所述脸部信息的每项相应的 情绪信息。16、 如权利要求IO所述的方法,其中,所述生成情绪信息的步骤包括 参照脸部表情模板信息,当取得用户图像时,生成包括情绪的类型和强度的 情绪信息。17、 如权利要求IO所述的方法,还包括,在生成所述情绪信息之前,与 脸部表情模板信息的大小相应,将提取...
【专利技术属性】
技术研发人员:徐俊奎,
申请(专利权)人:三星电子株式会社,
类型:发明
国别省市:KR[韩国]
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。