System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 用于控制智能家居环境的方法及装置、电子设备制造方法及图纸_技高网

用于控制智能家居环境的方法及装置、电子设备制造方法及图纸

技术编号:43012182 阅读:15 留言:0更新日期:2024-10-18 17:17
本申请涉及智能家居技术领域,公开一种用于控制智能家居环境的方法,包括:获取影响智能家居环境的环境控制策略的多源信息;其中,多源信息包括用户对于当前环境控制策略的反馈信息、用户的行为信息以及智能家居设备的状态信息中的一种或多种;根据多源信息生成混合奖赏值,并根据混合奖赏值优化初始环境控制策略产生模型,获得目标环境控制策略产生模型;基于目标环境控制策略产生模型,生成智能家居环境的目标环境控制策略,以控制智能家居环境。本公开实施例提供的目标环境控制策略产生模型,可以更好地理解并适应用户需求和环境变化,加强对智能家居环境的控制,提高用户满意度。本申请还公开一种用于控制智能家居环境的装置、电子设备。

【技术实现步骤摘要】

本申请涉及智能家居,例如涉及一种用于控制智能家居环境的方法及装置、电子设备


技术介绍

1、智能家居作为物联网的一部分,利用各种先进技术如自动控制,感应通讯,物联网等技术,实现了家庭设备的联动和远程控制。目前市面上的智能家居系统大多依赖预设的规则进行工作。例如,如果室内温度上升到设定值,空调就会自动开启;或者到了特定的时间点,智能灯就会自动熄灭。这种方式虽然方便了用户的生活,但仍然存在问题,包括:无法准确地响应用户行为和需求的变化;在处理复杂场景时抗干扰能力弱;系统复杂度高,优化难度大。近年来有些研究将机器学习方法应用到智能家居系统中,并取得了一定成果。

2、相关技术中,通过收集和分析用户行为数据来预测用户习惯,并根据预测结果控制智能家居设备的运作。

3、在实现本公开实施例的过程中,发现相关技术中至少存在如下问题:

4、相关技术中只收集和分析用户行为数据,所采用的数据类型偏单一,对智能家居环境的控制无法符合用户的预期,降低用户对智能家居环境控制结果的满意度。

5、需要说明的是,在上述
技术介绍
部分公开的信息仅用于加强对本申请的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。


技术实现思路

1、为了对披露的实施例的一些方面有基本的理解,下面给出了简单的概括。所述概括不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围,而是作为后面的详细说明的序言。

2、本公开实施例提供了一种用于控制智能家居环境的方法及装置、电子设备,以加强对智能家居环境的控制,提高用户满意度。

3、在一些实施例中,所述用于控制智能家居环境的方法包括:获取影响智能家居环境的环境控制策略的多源信息;其中,多源信息包括用户对于当前环境控制策略的反馈信息、用户的行为信息以及智能家居设备的状态信息中的一种或多种;根据多源信息生成混合奖赏值,并根据混合奖赏值优化初始环境控制策略产生模型,获得目标环境控制策略产生模型;基于目标环境控制策略产生模型生成智能家居环境的目标环境控制策略,以控制智能家居环境。

4、可选地,根据多源信息生成混合奖赏值,包括:对多源信息进行特征量化;对多源信息中每个信息的权重进行更新,获得更新后的权重函数;根据更新后的权重函数和特征量化后的多源信息,计算混合奖赏值。

5、可选地,对多源信息中每个信息的权重进行更新,包括:对每个信息的权重进行更新,获得更新后的权重函数;根据多源信息对更新后的权重函数进行评估,获得评估值;在评估值满足预设评估目标的情况下,完成对权重的更新。

6、可选地,对多源信息中每个信息的权重进行更新,还包括:设定多种特殊场景模式,以及每种特殊场景模式对应的每个信息的预设权重;识别当前智能家居环境的当前场景信息,并确定当前场景信息对应的当前特殊场景模式;根据当前特殊场景模式对应的每个信息的预设权重,对权重进行更新。

7、可选地,根据混合奖赏值优化初始环境控制策略产生模型,获得目标环境控制策略产生模型,包括:将混合奖赏值作为初始环境控制策略产生模型的回报函数;将回报函数输入初始环境控制策略产生模型进行强化学习,获得目标环境控制策略产生模型。

8、可选地,将回报函数输入初始环境控制策略产生模型进行强化学习,包括:设定训练智能家居环境信息,并将训练智能家居环境信息输入初始环境控制策略产生模型,获得训练环境控制策略;在训练智能家居环境信息中执行训练环境控制策略,并基于回报函数获得反馈信息;根据反馈信息,对初始环境控制策略产生模型的神经网络进行更新。

9、可选地,基于目标环境控制策略产生模型生成智能家居环境的目标环境控制策略,包括:获得目标环境控制策略产生模型输出的初始环境控制策略;对初始环境策略进行迭代更新,并在每次迭代更新后获得每个初始环境控制策略的回报期望;确定多个回报期望中的目标回报期望,并将目标回报期望对应的初始环境控制策略作为目标环境控制策略。

10、可选地,用于控制智能家居环境的方法,还包括:基于目标环境控制策略产生模型生成智能家居环境的目标环境控制策略后,识别初始智能家居环境;在初始智能家居环境发生改变的情况下,获得初始智能家居环境发生改变后的当前智能家居环境信息;根据当前智能家居环境信息对目标环境控制策略产生模型进行训练,以使训练后的目标环境控制策略产生模型产生的目标环境控制策略适应当前智能家居环境。

11、在一些实施例中,用于控制智能家居环境的装置包括:信息获取模块,被配置为获取影响智能家居环境的环境控制策略的多源信息;其中,多源信息包括用户对于当前环境控制策略的反馈信息、用户的行为信息以及智能家居设备的状态信息中的一种或多种;模型优化模块,被配置为根据多源信息生成混合奖赏值,并根据混合奖赏值优化初始环境控制策略产生模型,获得目标环境控制策略产生模型;策略生成模块,被配置为基于目标环境控制策略产生模型,生成智能家居环境的目标环境控制策略,以控制智能家居环境。

12、在一些实施例中,用于控制智能家居环境的装置包括处理器和存储有程序指令的存储器,所述处理器被配置为在运行所述程序指令时,执行如上述的用于控制智能家居环境的方法。

13、在一些实施例中,电子设备包括:电子设备本体;如上述的用于控制智能家居环境的装置,被安装于所述电子设备本体。

14、本公开实施例提供的用于控制智能家居环境的方法及装置、电子设备,可以实现以下技术效果:

15、本公开实施例中,通过收集和分析用户对于当前环境控制策略的反馈信息、用户的行为信息以及智能家居设备的状态信息作为多源信息,可以获取更全面以及准确的信息。再根据多源信息生成混合奖赏值,并根据混合奖赏值获得目标环境控制策略产生模型,可以使目标环境控制策略产生模型生成的目标环境控制策略更好地理解并适应用户需求和环境变化,从而实现加强对智能家居环境的控制,提高用户满意度。

16、以上的总体描述和下文中的描述仅是示例性和解释性的,不用于限制本申请。

本文档来自技高网...

【技术保护点】

1.一种用于控制智能家居环境的方法,其特征在于,包括:

2.根据权利要求1所述的方法,其特征在于,根据多源信息生成混合奖赏值,包括:

3.根据权利要求2所述的方法,其特征在于,对多源信息中每个信息的权重进行更新,包括:

4.根据权利要求2所述的方法,其特征在于,对多源信息中每个信息的权重进行更新,还包括:

5.根据权利要求1所述的方法,其特征在于,根据混合奖赏值优化初始环境控制策略产生模型,获得目标环境控制策略产生模型,包括:

6.根据权利要求5所述的方法,其特征在于,将回报函数输入初始环境控制策略产生模型进行强化学习,包括:

7.根据权利要求1所述的方法,其特征在于,基于目标环境控制策略产生模型,生成智能家居环境的目标环境控制策略,包括:

8.根据权利要求1至7任一项所述的方法,其特征在于,还包括:

9.一种用于控制智能家居环境的装置,其特征在于,包括:

10.一种用于控制智能家居环境的装置,包括处理器和存储有程序指令的存储器,其特征在于,所述处理器被配置为在运行所述程序指令时,执行如权利要求1至8任一项所述的用于控制智能家居环境的方法。

11.一种电子设备,其特征在于,包括:

...

【技术特征摘要】

1.一种用于控制智能家居环境的方法,其特征在于,包括:

2.根据权利要求1所述的方法,其特征在于,根据多源信息生成混合奖赏值,包括:

3.根据权利要求2所述的方法,其特征在于,对多源信息中每个信息的权重进行更新,包括:

4.根据权利要求2所述的方法,其特征在于,对多源信息中每个信息的权重进行更新,还包括:

5.根据权利要求1所述的方法,其特征在于,根据混合奖赏值优化初始环境控制策略产生模型,获得目标环境控制策略产生模型,包括:

6.根据权利要求5所述的方法,其特征在于,将回报函数输入初始环境控...

【专利技术属性】
技术研发人员:杜永杰邓邱伟田云龙苏明月郝德峰尹金铭赵培
申请(专利权)人:青岛海尔科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1