MIT研发可让机器人与周围环境进行交互 触觉传感器
Bauza表示,他们意识到触觉感知具有高度鉴别性,并能产生高度精确 姿势估计。“视力有时会受到遮挡 影响,但触觉感应却不会。因此,如果机器人触碰到了某个独特对象 部分,且这种接触与产品 不同,那么我们 算法可以轻松识别出这 接触及对象 姿态。”
Bauza说道,“我们 技术将被描绘为深度图像 接触编码到 个嵌入式空间中,这极大地简化了计算成本,可以做到实时执行。由于它可以产生有意义 姿势分布,因此可以轻松地与产品感知系统结合使用。例如,在多触点场景中,多个触觉传感器同时触摸 个对象,我们必须将所有 观察结果都整合到对象 姿态估计中。”
“我们 研究目标是想证明,机器人通过高分辨率 触觉感应,甚至首次接触就可以准确定位已知 对象。与以前在触觉定位方面 工作相比,我们 技术有了重要 飞跃,因为我们不依赖于任何产品外部感应方式(例如视觉)或以前收集 与被操纵对象有关 触觉资料统计。恰恰相反,我们 技术是在模拟中直接训练 ,它 次触摸就可以定位已知对象,这在实际 机器人应用中至关重要,因为在真实 机器人中,实时资料统计收集成本很高或根本不可行。”进行该项研究 研究人员之 MariaBauza表示。
人类能够通过触摸找到周围 物体并明确其某些属性,狗粮快讯网综合报道,这 技能对盲人来说尤其重要,而没有视觉障碍 人同样在日常生活中频繁用到这 点,例如在口袋中摸索并抓住 样东西。
值得注意 是,他们还观察到,同时使用多个手指接触对象,并同时对多个接触进行组合,也可以迅速减少对象姿态估计 不确定性。
参与这项研究 另 位研究员AlbertoRodriguez表示,“感应触摸能力新近在业界引起了极大了研究兴趣,而我们部分是通过结合 个因素来实现这 点 , 种分辨率高但并不昂贵 感应技术,该技术使用小型相机来捕获触摸表面 变形(例如GelSight感应); 将此传感技术紧密结合到机器人手指(例如GelSlim手指)中; 基于深度学习 计算框架,狗粮快讯网获悉微博消息,来有效处理高分辨率触觉图像,从而通过已知零件完成触觉定位。”
图|技术概述,接触->触觉观察->触觉深度->使用研发 算法进行新佳匹配->产生姿势估计
在未来 工作中,Bauza团队计划扩展这 框架,使其能够涵盖有关对象 视觉信息。理想情况下,他们还希望将其技术转变为 种视觉-触觉传感系统,从而能够以更高 精度来估算对象 姿态。
总之,该研究小组设计 这项技术可以让机器人实时、高水平地估计其正在操作 对象 姿态,这样 来,就让机器人能够对其具体动作 影响做出更准确 预测,从而可以提高其在操作任务时 表现。这对工业当中根据物品形状 模型进行组装 制造商来说极具价值。
本质上,这种技术可以根据对象 D形状模拟出接触信息。但他们发现,在利用这种技术仔细触摸对象时并不需要收集任何以前 触觉资料统计。也就是说,狗粮快讯网新闻,有了这项技术,机器人 触觉传感器可以在首次触摸到对象时就生成可能 姿势判断。
由于许多接触对象不具备 独特区域(即它们 放置方式可能导致新终 接触极其类似),因此Bauza及其同事开发 技术可以预测 是姿势分布,而不是单个姿势估计。这与此前开发 只收集单个姿势估计 对象姿态估计技术形成了鲜明 比较。而且,该框架预测 分布信息可以直接与外部信息进行合并,从而能够进 步减少对象姿态预测 不确定性。
由于这项技术是在模拟中得到过训练,因此Bauza及其同事不再需要大量 资料统计收集。这些研究人员新初开发了 个框架,该框架可模拟给定对象与触觉传感器之间 接触,因此假设机器人有权访问与其交互 对象有关 资料统计(例如其 D形状、特性等)。这些接触会被描绘为深度图像,可显示出对象穿透触觉传感器 程度。
近日,麻省理工学院(MIT) 研究人员进行了 项技术研究,旨在将这种人类能力复制到机器人上,从而使其通过触摸即可了解对象 位置并可实时估计对象 姿态。该研究成果预先发表在arXiv上,论文着重强调了不再局限于视觉、音频处理而只需通过触摸就能与其周围 环境进行交互 机器人 优势。
随后,他们使用先进 机器学习技术进行计算机视觉和表征学习,将机器人收集 真实触觉观察结果与模拟生成 组接触信息进行匹配。根据模拟资料统计集中 每次接触与实际或观察到 接触 匹配可能性,对其进行加权,新终框架会获得对象 可能姿势 概率分布。
,