一种智能穿戴设备间的信息识别及相互通讯方法技术

技术编号:13104880 阅读:74 留言:0更新日期:2016-03-31 11:26
本发明专利技术涉及一种智能穿戴设备间的信息识别及相互通讯方法,包括:通过智能穿戴设备收集附近的信息,将信息传送至后台服务器,在后台服务器中完善信息,后台服务器将配型成功的信息实时传输至智能穿戴设备,并通过图像、音频或者视频方式推送给智能穿戴设备的佩戴者;同时将配型成功的信息通过智能穿戴设备通过图像、音频或者视频方式推送给附近的智能穿戴设备。本发明专利技术可以使智能穿戴设备的佩戴者在社交活动中保存任何想要保存的信息,该信息包括人脸信息、对应的姓名等,并在再次遇见时,主动将社交信息推送给智能穿戴设备的佩戴者;同时图像及视频传输不仅提高智能穿戴设备的LED显示器的动态视频和图片显示效果,从而提升了产品效果和档次。

【技术实现步骤摘要】

本专利技术涉及一种智能穿戴设备间的控制方法,具体涉及。
技术介绍
“穿戴式智能设备”是应用穿戴式技术对日常穿戴进行智能化设计、开发出可以穿戴的设备的总称,如眼镜、手套、手表、服饰及鞋等。而广义的穿戴式智能设备包括功能全、尺寸大、可不依赖智能手机实现完整或者部分的功能,例如智能手表或智能眼镜等,以及只专注于某一类应用功能,需要和其它设备如智能手机配合使用,如各类进行体征监测的智能手环、智能首饰等。随着技术的进步以及用户需求的变迀,可穿戴式智能设备的形态与应用热点也在不断的变化。穿戴式技术在国际计算机学术界和工业界一直都备受关注,只不过由于造价成本高和技术复杂,很多相关设备仅仅停留在概念领域。随着移动互联网的发展、技术进步和高性能低功耗处理芯片的推出等,部分穿戴式设备已经从概念化走向商用化,新式穿戴式设备不断传出,谷歌、苹果、微软、索尼、奥林巴斯等诸多科技公司也都开始在这个全新的领域深入探索。智能穿戴设备包括智能手环、谷歌眼镜等等,都已在现实生活中得到广泛的应用;人们使用智能穿戴设备的目的,主要是为了在日常生活或者社交活动中,能够快速获得自己想要的信息。随着社交圈的不断扩大,通过名片或者自身记忆的方式来管理自己的社交圈,显然已力不从心,人们经常遇到的尴尬事比如:别人在社交场合认识你,但是你却想不出对方是谁,常常使自己处于被动、不礼貌,甚至可能因此丧失商机。基于以上问题,在现有智能穿戴设备中植入一种社交识别系统,使智能穿戴设备具有实时识别、实时采集、实时提醒的社交识别功能,可以使智能穿戴设备的佩戴者在社交活动中常常处于主动地位。现阶段基于蓝牙的智能穿戴设备盛行,按架构等级可分成高端外设和低端外设。高端外设使用与智能手机同等级的硬件设计,可独立运行完整操作系统,有良好的用户体验和显示效果,但因成本和续航能力的原因不及低端外设容易普及。低端外设一般是8?32bit单片机,也有是自带蓝牙功能的单片机,运算速度慢(小于100MHz),运行内存非常小(小于512Byte),显示效果只能是简单的静态图片推送与文字显示,无法做到与高端设备一样的视频播放等级的(大于20帧)动态效果。这类设备一般含有LED带灰度或0LED的点阵屏幕,显示方法与高端的基于IXD的方式有着很大的不同,特别是LED有电流饱和现象,一般的256级线性灰度显示会出现极不均匀现象。
技术实现思路
本专利技术的目的在于克服现有技术的缺陷和不足,提供一种新型的智能穿戴设备间的信息识别及相互通讯方法。为了达到上述目的,本专利技术提供,包括如下步骤: (1)通过智能穿戴设备收集附近的信息;(2)将信息传送至后台服务器;(3)在后台服务器中完善信息;(4)通过智能穿戴设备抓取实时信息,后传至后台服务器,后台服务器将实时抓取的信息和已存储的信息进行配型;(5)后台服务器将配型成功的信息实时传输至智能穿戴设备,并通过图像、音频或者视频方式推送给智能穿戴设备的佩戴者;(6)同时将配型成功的信息通过智能穿戴设备通过图像、音频或者视频方式推送给附近的智能穿戴设备;(7)将图像、音频或者视频格式的信息进行YUV解码,Y分量输出原始8bit数据;(8)将8bit数据进行量化,并将量化数据统计和计算出若干种哈夫曼树,并将若干种哈夫曼树预先内置于哈夫曼编码器和哈夫曼解码器;(9)对从步骤(8)传来的量化数据进行半自适应哈夫曼编码进行编码,得到I帧和P帧量化数据;(10)对从步骤(9)传来的数据包进行哈夫曼解码,得到灰度数据,并进行I帧哈夫曼解码,得到各段I帧和P帧; (11)对步骤(10)的各段I帧进行量化和组帧,对各P帧进行哈夫曼解码还原并量化; (12)将S7步骤的量化P帧叠加到I帧。进一步的,所述智能穿戴设备包括智能眼镜,所述智能眼镜包括眼睛焦点传感单元、眼睛焦点摄像单元、存储单元、微处理器、无线传送单元、无线接收单元、微投影单元和镜片Ο进一步的,所述步骤(1)中的收集附近的信息包括:眼睛焦点传感单元感知智能眼镜佩戴者的眼睛焦点,微处理器处理眼睛焦点传感单元的相关信息,并转换为控制信号,并控制眼睛焦点摄像单元对眼睛焦点聚焦的人脸信息进行摄像。进一步的,所述步骤(4)中的抓取实时信息包括:眼睛焦点传感单元感知智能眼镜佩戴者的眼睛焦点,微处理器处理眼睛焦点传感单元的相关信息,并转换为控制信号,并控制眼睛焦点摄像单元对眼睛焦点聚焦的人脸信息进行摄像;所述步骤四中的配型采用主成份分析法,即根据图像的统计特征进行正交变换,变换后由高维向量转换为低维向量,并形成低维线性向量空间,以消除原有向量各个分量之间的相关性,利用人脸投影到这个低维线性向量空间所得到的投影系数作为识别的人脸特征矢量,即可产生由人脸特征矢量张成的子空间;每一幅人脸图像向该子空间投影都可获得一组坐标系数,该组坐标系数表明了人脸在该子空间中的位置,该组坐标系数即成为配型的依据。进一步的,所述眼睛焦点传感单元感知智能眼镜佩戴者的眼睛焦点,微处理器处理眼睛焦点传感单元相关信息,并转换为控制信号,并控制眼睛焦点摄像单元对眼睛焦点聚焦的人脸信息进行摄像,无线传送单元将拍摄到的人脸信息后传至后台服务器保存,并完善该人脸信息对应的社交信息;当该智能眼镜在后续使用中,实时抓取人脸信息后传至后台服务器,后台服务器将实时抓取到人脸信息和原先保存的人脸信息配型,并将将配型成功的人脸信息以及对应的信息实时一并推送至智能眼镜的存储单元,并通过微投影单元将配型成功的人脸信息以及对应的信息投影至智能眼镜的镜片上。进一步的,所述步骤(8)是将所述8bit数据量化成4bit数据。进一步的,所述视频和图片传输方法采用gamma校正器微调LED显示器的亮度。本专利技术相对于现有技术,具有以下有益效果:本专利技术可以使智能穿戴设备的佩戴者在社交活动中保存任何想要保存的信息,该信息包括人脸信息、对应的姓名等,并在再次遇见时,主动将社交信息推送给智能穿戴设备的佩戴者;同时图像及视频传输不仅提高智能穿戴设备的LED显示器的动态视频和图片显示效果,并且提高智能穿戴设备内存利用率,降低智能穿戴设备内存的开销,减少数据传输过程中所需的带宽,从而提升了产品效果和档次。【附图说明】图1是本专利技术的智能眼镜电路控制原理框图。【具体实施方式】下面结合实施例及附图,对本专利技术作进一步地详细说明,但本专利技术的实施方式不限于此。本专利技术提供,包括如下步骤:(1)通过智能穿戴设备收集附近的信息;该社交信息包括人脸信息,由于人脸是社交活动中,人们相互辨识的基本元素,所以,本专利技术将人脸识别信息作为社交信息中的重要组成部分;如图1所示,该智能穿戴设备包括智能眼镜200,所述智能眼镜200包括眼睛焦点传感单元201、眼睛焦点摄像单元202、存储单元206、微处理器203、无线传送单元204、无线接收单元205、微投影单元207和镜片208,该智能眼镜200的佩戴者在使用时,眼睛焦点传感单元201通过微量激光测距的方式不间断监测智能眼镜佩戴者的眼睛晶状体厚度变化,并将相关厚度信息传送至微处理器203,微处理器203通过内部运算即可得到眼睛焦点数据信息,并转换为控制信号,并控制眼睛焦点摄像单元202对眼睛焦点聚焦的人脸信息进行摄像。上述监测智能眼镜佩戴者的眼睛晶状体厚度变化原理如下:人的眼睛晶状体如同本文档来自技高网
...

【技术保护点】
一种智能穿戴设备间的信息识别及相互通讯方法,其特征在于:包括如下步骤:(1)通过智能穿戴设备收集附近的信息;(2)将信息传送至后台服务器;(3)在后台服务器中完善信息;(4)通过智能穿戴设备抓取实时信息,后传至后台服务器,后台服务器将实时抓取的信息和已存储的信息进行配型;(5)后台服务器将配型成功的信息实时传输至智能穿戴设备,并通过图像、音频或者视频方式推送给智能穿戴设备的佩戴者;(6)同时将配型成功的信息通过智能穿戴设备通过图像、音频或者视频方式推送给附近的智能穿戴设备;(7)将图像、音频或者视频格式的信息进行YUV解码,Y分量输出原始8bit数据;(8)将8bit数据进行量化,并将量化数据统计和计算出若干种哈夫曼树,并将若干种哈夫曼树预先内置于哈夫曼编码器和哈夫曼解码器;(9)对从步骤(8)传来的量化数据进行半自适应哈夫曼编码进行编码,得到I帧和P帧量化数据;(10)对从步骤(9)传来的数据包进行哈夫曼解码,得到灰度数据,并进行I帧哈夫曼解码,得到各段I帧和P帧;(11)对步骤(10)的各段I帧进行量化和组帧,对各P帧进行哈夫曼解码还原并量化;(12)将S7步骤的量化P帧叠加到I帧...

【技术特征摘要】

【专利技术属性】
技术研发人员:潘昊
申请(专利权)人:安徽海聚信息科技有限责任公司
类型:发明
国别省市:安徽;34

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1