ICRA 自然语义引导的机器人技能操作 |
||
2023/11/7 16:09:22 | 4932 | |
随着自然语言处理技术的发展以及客户需求的提高,当机器人进入以人为主的环境时,必须学会理解人类语言,完成指定任务。相较于传统只对场景做出反应的机器人操作方法,结合语义输入,让机器人理解人类语言,根据场景和自然语言指令完成相应任务,能为人机协作带来更大的便利性。然而,目前该方法具有如下限制: (1)依赖手工编码任务符号来实现语义表达,限制了语义层面的泛化性。 (2)从指令中推断动作序列时,需要密集的子目标监督。 (3)缺乏更深层次的以目标为中心的推理方法,在解释复杂指令时不连贯。 针对上述问题,该文章提出了一种可感知视觉场景,同时处理语言输入的端到端可训练的模型。该模型使用视觉输入得到当前场景中物体在初始状态下的位置关系,以语义文字推理目标状态下对应的位置关系,实现由自然语言引导机器人进行技能操作。 相关成果以“Learning Neuro-symbolic Programs for Language Guided Robot Manipulation”为题发表于International Conference on Robotic and Automation (ICRA)会议中。 该文章提出了一种新型神经符号模型,使用自然语言推理目标场景,实现在给定初始场景和目标场景的情况下即可学习执行复杂的操作任务,并展示了如何在不需要任何中间监督的情况下,仅使用初始与目标两个场景作为监督来获取机器人操作动作的密集表示。 实验表明,该文章的方法可通过端到端的训练而不需进行任何子目标监督,即可展现出强大的指令理解能力,并对新场景和指令展现出强大的泛化能力,为将来基于自然语言的人机协作,机器人的语义指令集的拓展提供了新的参考思路。 1、模型结构设计 该端到端模型的结构如图1所示,由视觉提取器、语言解释器、视觉解释器、动作模拟器组成。输入初始场景和基于自然语言的任务指令,模型输出完成该指令所需的动作参数,以及预测完成任务后的最终场景。 视觉提取器相当于一个目标检测模型,用于识别初始场景下的物体信息。以图11为例,输入桌面初始状态的图像,视觉提取器输出各个物体的外接框、颜色信息及物体名称,并由外接框在桌面上的相对位置推断物体的位置信息。 语言解释器用于处理自然语言指令推理任务中隐含的操作动作。例如图中“移动绿色骰子后面的红色骰子至红色方块的右边”这句指令,语言解释器经过推理会得到完成该任务需要进行“移动”动作,移动的物体是“位于绿色骰子后面的红色骰子”,目标是“红色方块右边”,并可屏蔽“绿色方块”和“蓝色骰子”这些与完成任务无关的信息。推理完毕后,以专用指令集组合出推理结果。 专用指令集的结构如图2所示,分为“关键词”和“操作词”,前者用于描述物体信息,后者用于表示操作信息。 视觉解释器结合前二者输出的场景信息和任务指令集,输出完成该任务所需的参数化表示,交由任务模拟器生成机器人所能执行的动作参数,并预测完成任务后的场景情况。 以预测场景和数据集中提前设定好的目标场景做差,设置损失函数,即可实现端到端的训练过程。
|
||
上一篇 下一篇 |
返回顶部 ∧ |
技术支持 |
关于创泽 |
隐私条款 |
|
版权所有 @ 创泽智能机器人集团股份有限公司 运营中心 / 北京市·清华科技园九号楼5层 生产中心 / 山东省日照市开发区太原路71 |