|加州大学研究员用ARKit生成点云数据,进行机器人抓握训练


6月12日青亭网报道 , 近期加州大学伯克利学院的AI技术研究学者 , 正在通过苹果iPhone X以及ARKit技术训练机械臂抓握物体 。
|加州大学研究员用ARKit生成点云数据,进行机器人抓握训练
本文插图

据了解 , 该实验隶属于Dex-Net AR , 该项目就是通过智能手机的AR技术训练机器人 , 如何实现更好的物体抓握 。 其中 , ARKit环节中的RGB相机将围绕虚拟物体周围环绕拍摄2分钟 , 以此来生成点云数据 。
【|加州大学研究员用ARKit生成点云数据,进行机器人抓握训练】加州大学伯克利分校Autolab下属的Dext -Net研究最初设立于2017年 , 其包括开源培训数据集 , 预先训练的模型 , 以及用于电商物流分拣的机器人等 。
细节方面 , 机器人抓取是一个特性的戏份领域 , 其目的是让机器人具备识别能力 , 并且准确的抓取、移动或操作物体的能力 。
在这项实验中 , 研究员通过ARKit扫描的数据转换为深度图像和点云数据 。 从而让ABB YuMi机器人可以识别并抓取物体 , 据悉抓取成功率已达95% 。
而该项目在近期一片论文中提到 , 相比于传统固定视角的深度相机 , Dex-Net AR可以通过用户的手机拍摄物体周围的三维点云数据 。 同时 , Dex-Net AR通过一系列降噪算法 , 尽可能消除误差 。
细节方面 , 每次通过iPhone扫描周围物体周围的环境时 , 需要花2分钟时间 。 目前时间相对较长 , 接下来研究员将探索更快速的扫描算法 。 据悉 , 研究员还在探索通过机器学习技术完善点云数据 , 甚至通过iPhone X前置深度相机完成扫描等等 。


    推荐阅读