我们已经更新我们的隐私政策使它更加清晰我们如何使用您的个人资料。

我们使用cookie来提供更好的体验。你可以阅读我们的饼干的政策在这里。

广告

给机器人的触觉

让机器人触觉图像内容块
GelSight传感器连接到机器人的钳子使机器人准确地确定,抓住一个小螺丝刀,把它从它插入插槽,即使屏幕钳子螺丝刀从机器人的摄像头。照片:机器人运动组麻省理工学院

想要一个免费的PDF版本的这个新闻吗?

完成下面的表格,我们将电子邮件您的PDF版本“给机器人触觉”

听与
喋喋不休地说
0:00
注册免费听这篇文章
谢谢你!听这篇文章使用上面的球员。
阅读时间:

八年前,泰德·阿德尔森的研究小组在麻省理工学院计算机科学和人工智能实验室(CSAIL)公布了一项新的传感器技术,称为GelSight,使用身体接触与一个对象提供一个非常详细的表面的3 d地图。


现在,GelSight传感器,安装在机器人手臂的触手,两个麻省理工学院的团队有更大的敏感性和灵巧的机器人。研究人员展示了自己的作品在两篇论文上周机器人与自动化国际会议上。


在一个纸,阿德尔森的团队使用的数据GelSight传感器使机器人能够判断表面的硬度与——如果家庭机器人是一个至关重要的能力来处理日常用品。


,Russ Tedrake机器人运动集团做成的使用GelSight传感器使机器人能够操纵对象比以前小。


GelSight传感器,在某些方面,低技术含量的解决一个困难的问题。它由一块透明橡胶——它的名字的“凝胶”——一个表面涂上金属油漆。涂料的脸压在一个对象时,它符合对象的形状。


金属油漆使物体表面的反射,所以它的几何形状变得更容易计算机视觉算法来推断。对面安装在传感器表面涂料橡胶块三个彩灯和一个照相机。


“(系统)彩灯在不同的角度,然后它有反光材料,并通过观察颜色、计算机…可以算出的三维形状的东西是什么,”埃德森解释说,约翰和多萝西·威尔逊教授的视觉脑与认知科学系的科学。


在这两组实验中,GelSight传感器是安装在机器人抓手的一侧,一个设备有点像军,但平扣人心弦的表面而不是技巧。


接触点


自主机器人,测量对象的柔软或硬度是至关重要的决定不仅在哪里以及如何难以理解他们,但他们将如何移动时,堆叠,或放在不同的表面。触觉传感也可以帮助机器人区分类似的对象。


在以往的研究中,机器人已经试图评估对象的硬度,把他们放在一个平面上,轻轻的戳他们,看他们给多少。但这不是人类的主要方式测量硬度。相反,我们的判断似乎是基于对象之间的接触面积的程度和手指的变化我们的新闻。柔和的对象更倾向于扁平,增加接触面积。


麻省理工学院的研究人员采用了同样的方法。Wenzhen元,在机械工程和研究生第一作者从埃德森集团在纸上,用糖果模具硅胶对象的创建400组,每个组有16个对象。在每一组中,对象有相同的形状但不同程度的硬度、元测量使用标准工业规模。


然后她按下手动GelSight传感器对每个对象和记录接触模式如何改变随着时间的推移,基本上每个对象产生一个短片。标准化的数据格式和保持数据的大小可控的,她从每部电影5帧中提取,均匀间隔的时间,按描述物体的变形。


最后,她把神经网络数据,自动寻找接触模式的变化之间的联系和硬度测量。由此产生的系统需要帧的视频作为输入并产生硬度分数具有很高的准确性。元也进行了一系列的非正式的实验中人体触诊水果和蔬菜根据硬度和排名。在每个实例中,GelSight-equipped机器人到达相同的排名。


元在纸上加入了她的两个论文顾问,埃德森和Mandayam Srinivasan,高级研究科学家机械工程系;Chenzhuo朱,来自清华大学的本科生参观了阿德尔森集团去年夏天;和安德鲁·欧文斯,他是麻省理工学院的电气工程和计算机科学博士学位,现在是加州大学伯克利分校的博士后。


阻塞的观点


本文从机器人运动组的出生组的经验与国防高级研究计划局的机器人(DRC)的挑战,在学术和行业团队竞相开发将指导仿人机器人的控制系统通过一系列相关假设的紧急任务。


通常,一个自治机器人将使用某种形式的计算机视觉系统来指导其操作的对象在其环境。这种系统可以提供非常可靠的信息对象的位置,直到机器人接对象。特别是如果对象是小,大部分将由机器人的钳子,阻挡位置估计更加困难。因此,在完全的机器人需要知道对象的位置准确地说,它的估计变得不可靠。这是麻省理工学院的团队所面临的问题在刚果民主共和国,当他们的机器人必须捡起来,打开一个电钻。


“刚果民主共和国在我们的视频中可以看到,我们花两三分钟打开钻,”格雷格•Izatt说研究生在电气工程和计算机科学和新论文的第一作者。“这将是更好的如果我们有一个即时更新,准确的估计的地方钻,我们的手是相对于它。”


这就是为什么转向GelSight机器人运动组。Izatt和他的合作者——Tedrake,丰田的电气工程和计算机科学教授,航空航天,和机械工程;阿德尔森;和Geronimo Mirano,另一个研究生在Tedrake的小组,设计了控制算法,用计算机视觉系统指导机器人的爪朝着一个工具,然后把位置估计交给GelSight传感器一旦机器人工具。


一般来说,这种方法的挑战是调和视觉系统产生的数据与数据产生的触觉传感器。但是GelSight本身就是基于成像,所以其数据输出更容易集成视觉数据比其他触觉传感器的数据。


Izatt的实验中,一个机器人GelSight-equipped爪抓一把小螺丝刀,将它从一个皮套,并返回。当然,GelSight传感器的数据不描述整个螺丝刀,只是一小块。但是Izatt发现,只要螺丝刀的视觉系统的估计的初始位置精确到几厘米,他的算法可以推断的哪一部分螺丝刀GelSight传感器接触,因此确定螺丝刀的位置在机器人的手。


“我认为GelSight技术,以及其他高带宽的触觉传感器,将使机器人产生重大影响,”谢尔盖·莱文说,电气工程和计算机科学助理教授在加州大学伯克利分校。“对于人类来说,我们的触觉是我们神奇的手灵巧度的关键促成因素。当前机器人缺乏这种类型的灵活性和反应的能力是有限的,当操纵物体表面特性。如果你想象一下,灯的开关在黑暗中摸索,提取对象从你的口袋里,或任何其他你可以做很多事情甚至没有思考——这些都依赖于触摸感应。”


“软件终于赶上我们的传感器的功能,”莱文补充道。“机器学习算法启发创新深度学习和计算机视觉处理等丰富的感官数据从传感器GelSight演绎对象属性。在未来,我们将看到这些学习方法纳入端到端操作技能训练,这将使我们的机器人更加灵巧,有能力,也许帮助我们了解我们自己的触觉和运动控制”。


这篇文章被转载材料所提供的麻省理工学院的。注:材料可能是长度和内容的编辑。为进一步的信息,请联系引用源。

广告
Baidu