System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术属于机械手控制,具体涉及一种机械手抓握对齐方法、系统及存储介质。
技术介绍
1、机械手作为工业自动化和智能制造领域的重要组成部分,在生产制造、医疗、服务等多个领域发挥着关键作用。随着科技的进步和应用需求的不断提高,对机械手的智能化和灵活性提出了更高的要求。
2、传统的机械手通常依赖预设程序和固定动作序列来完成任务,缺乏自主决策和环境适应能力。这种方式在结构简单、环境稳定的场景下可以满足基本需求,但在复杂多变的动态环境中往往表现不佳。例如,当目标物体的位置、姿态发生变化时,传统机械手难以做出相应调整,容易造成抓取失败或碰撞等问题。
3、此外,传统机械手的操作往往需要人工编程和调试,耗时耗力,难以快速适应新的任务需求,在一些高度动态的场景中,如协作机器人、服务机器人等应用场景中,传统机械手的局限性更加明显,难以满足灵活交互、实时决策的需求。
技术实现思路
1、鉴于以上所述的现有技术的缺点,本专利技术的目的是提供一种机械手抓握对齐方法、系统及存储介质,解决了如何对目标物体的精确抓握对齐的问题。
2、为实现上述目的,本专利技术采用如下技术方案。
3、本专利技术第一方面提供一种机械手抓握对齐方法,包括:上层机械手抓握手势选择步骤以及下层机械手腕部关节抓握对齐步骤;其中:
4、所述上层机械手抓握手势选择步骤包括:获取并基于目标物体的图片提取目标物体的轮廓;根据目标物体的轮廓计算目标物体的位置状态信息和形状;基于所述目标物体的
5、所述下层机械手腕部关节抓握对齐步骤包括:将目标物体的位置状态信息作为预设强化学习算法的状态空间,输出机械手腕部关节动作角度;
6、基于机械手抓握手势和机械手腕部关节动作角度实现机械手对目标物体的抓握对齐。
7、作为本专利技术的一种实施方式,所述获取并基于目标物体的图片提取目标物体的轮廓,包括:
8、通过机械手上的摄像头实时获取目标物体的图片;
9、对目标物体的图片进行预处理,得到预处理后的目标物体的图片;
10、对预处理后的目标物体的图片进行边缘检测,得到边缘检测后的目标物体的图片;
11、对边缘检测后的目标物体的图片进行膨胀处理,得到膨胀处理后的目标物体的图片;
12、对膨胀处理后的目标物体的图片进行轮廓提取,得到目标物体的轮廓。
13、作为本专利技术的一种实施方式,所述根据目标物体的轮廓计算目标物体的位置状态信息和形状,包括:
14、获取目标物体的轮廓的最小外接矩形的几何中点坐标和两条对称轴长度比值,以及目标物体的轮廓圆度;
15、通过将最小外接矩形的几何中点坐标与相机坐标系中的光轴点坐标进行相对坐标运算,获取目标物体的位置状态信息;以及
16、当目标物体的轮廓圆度大于圆度判断阈值,判断目标物体的形状为球体;反之为长方体或正方体,其中:当目标物体的最小外接矩形的两条对称轴长度比值大于轴长度比值判断阈值,判断目标物体的形状为长方体,否则为正方体。
17、作为本专利技术的一种实施方式,所述将目标物体的位置状态信息作为预设强化状态信息学习算法的状态空间,输出机械手腕部关节动作角度,包括:
18、获取目标物体的位置状态信息,其中目标物体的位置状态信息以表示,其中, t为时刻,为环境状态,以 t时刻的上层机械手抓握手势选择步骤得到的目标物体的位置状态信息作为环境状态;
19、以双延迟深度确定性梯度策略强化学习算法作为预设强化学习算法,所述双延迟深度确定性梯度策略强化学习算法用td3强化学习算法表示,所述td3强化学习算法的状态空间为目标物体所有可能的位置状态信息;
20、将所述目标物体的位置状态信息输入至所述td3强化学习算法中,输出一组角度值,该组角度值即为机械手腕部关节动作角度。
21、作为本专利技术的一种实施方式,所述td3强化学习算法的奖励函数设置为根据机械手腕部关节动作结束后的对齐程度来给予不同的奖励值,其中,未对齐程度值的定义为:,未对齐程度值 d越小则代表当前机械手对齐程度较高,反之未对齐程度值 d越大则代表当前对齐程度越低。
22、作为本专利技术的一种实施方式,所述将所述目标物体的位置状态信息输入至所述td3强化学习算法中,输出一组角度值,包括:
23、在 t时刻:
24、智能体接收上层机械手抓握手势选择步骤输出的 t时刻的目标物体的位置状态信息作为环境状态;
25、将环境状态输入至智能体中的策略网络进行决策,通过策略网络输出两个腕部关节动作角度作为动作。
26、作为本专利技术的一种实施方式,所述基于机械手抓握手势和机械手腕部关节动作角度实现机械手对目标物体的抓握对齐后,包括:
27、机械手腕部关节电机执行动作,执行完成后,时刻变为 t+1时刻;
28、在 t+1时刻时:
29、智能体接收上层机械手抓握手势选择步骤输出的 t+1时刻的目标物体的位置状态信息作为环境状态;
30、将环境状态代入预设奖励函数,获取动作的奖励值;
31、将四元组样本数据存入样本数据池。
32、作为本专利技术的一种实施方式,所述下层td3强化学习算法中包含六个网络:两个价值网络,两个目标价值网络,一个策略网络和一个目标策略网络;
33、所述td3强化学习算法的训练过程,包括:
34、从样本数据池中抽取一批四元组样本数据;
35、,其中向量的每个元素都独立从截断正态分布中抽取,下标now表示神经网络当前参数;
36、使用两个目标价值网络进行预测:
37、;
38、;
39、计算td目标:
40、;
41、使用两个价值网络进行预测:
42、;
43、;
44、计算td误差:
45、;
46、;
47、更新上述两个价值网络:
48、;
49、;
50、每隔 k轮更新一次策略网络和目标网络参数:
51、使用策略网络做预测:,然后更新策略网络:
52、;
53、更新目标网络参数:
54、;
55、;
56、;<本文档来自技高网...
【技术保护点】
1.一种机械手抓握对齐方法,其特征在于,包括:上层机械手抓握手势选择步骤以及下层机械手腕部关节抓握对齐步骤;其中:
2.根据权利要求1所述的机械手抓握对齐方法,其特征在于,所述获取并基于目标物体的图片提取目标物体的轮廓,包括:
3.根据权利要求1所述的机械手抓握对齐方法,其特征在于,所述根据目标物体的轮廓计算目标物体的位置状态信息和形状,包括:
4.根据权利要求1所述的机械手抓握对齐方法,其特征在于,所述将目标物体的位置状态信息作为预设强化学习算法的状态空间,输出机械手腕部关节动作角度,包括:
5.根据权利要求4所述的机械手抓握对齐方法,其特征在于,所述TD3强化学习算法的奖励函数设置为根据机械手腕部关节动作结束后的对齐程度来给予不同的奖励值,其中,未对齐程度值的定义为:,未对齐程度值d越小则代表当前机械手对齐程度较高,反之未对齐程度值d越大则代表当前对齐程度越低。
6.根据权利要求4所述的机械手抓握对齐方法,其特征在于,所述将所述目标物体的位置状态信息输入至所述TD3强化学习算法中,输出一组角度值,包括:
8.根据权利要求4所述的机械手抓握对齐方法,其特征在于,所述TD3强化学习算法中包含六个网络:两个价值网络,两个目标价值网络,一个策略网络和一个目标策略网络;
9.一种机械手抓握对齐系统,其特征在于,包括:上层机械手抓握手势选择单元、下层机械手腕部关节抓握对齐单元和执行单元;其中:
10.一种可读存储介质,存储有计算机程序,其特征在于,该计算机程序被处理器执行如权利要求1-8任一项所述的机械手抓握对齐方法的步骤。
...【技术特征摘要】
1.一种机械手抓握对齐方法,其特征在于,包括:上层机械手抓握手势选择步骤以及下层机械手腕部关节抓握对齐步骤;其中:
2.根据权利要求1所述的机械手抓握对齐方法,其特征在于,所述获取并基于目标物体的图片提取目标物体的轮廓,包括:
3.根据权利要求1所述的机械手抓握对齐方法,其特征在于,所述根据目标物体的轮廓计算目标物体的位置状态信息和形状,包括:
4.根据权利要求1所述的机械手抓握对齐方法,其特征在于,所述将目标物体的位置状态信息作为预设强化学习算法的状态空间,输出机械手腕部关节动作角度,包括:
5.根据权利要求4所述的机械手抓握对齐方法,其特征在于,所述td3强化学习算法的奖励函数设置为根据机械手腕部关节动作结束后的对齐程度来给予不同的奖励值,其中,未对齐程度值的定义为:,未对齐程度值d越小则代表当前机械手对齐程度较高,反之未对齐程度值d越大则...
【专利技术属性】
技术研发人员:汤奇荣,余明达,汪远翔,马保平,余敏,林荣富,
申请(专利权)人:同济大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。