建设网站的费用明细大概有哪些,wordpress 多域名多站点,wordpress制作公司主页,wordpress meta 排序来源#xff1a;中国机器人网 前言#xff1a;MIT的研究让数据有了机器人的方向麻省理工学院的研究人员已经汇编了一个数据集#xff0c;该数据集捕获了物理上推动数百个不同对象的机器人系统的详细行为。研究人员可以使用数据集#xff08;同类中规模最大#xff0c;种类… 来源中国机器人网 前言MIT的研究让数据有了机器人的方向麻省理工学院的研究人员已经汇编了一个数据集该数据集捕获了物理上推动数百个不同对象的机器人系统的详细行为。研究人员可以使用数据集同类中规模最大种类最多的训练机器人以“学习”推动动力学这对于许多复杂的对象操纵任务都是至关重要的包括重新定向和检查对象以及整洁的场景。为了捕获数据研究人员设计了一个自动化系统该系统包括具有精确控制的工业机械手3D运动跟踪系统深度和传统相机以及将所有东西缝合在一起的软件。手臂推着模块化的物体可以调整它们的重量形状和质量分布。对于每次推动系统都会捕获这些特征如何影响机器人的推动。名为“ Omnipush”的数据集包含250个对象的250个不同的推送总计大约62,500次唯一推送。例如研究人员已经在使用它来构建模型以帮助机器人预测物体在被推动时会降落在何处。这一篇描述Omnipush的论文的作者机械工程系MechE的研究生Maria Bauza说“我们需要大量丰富的数据来确保我们的机器人能够学习。” 智能机器人和系统。“在这里我们正在从真实的机器人系统中收集数据并且对象足够多以捕获丰富的推动现象。这对于帮助机器人理解推动的工作原理并将该信息转换为其他类似现实世界中物体的信息非常重要。”加入Bauza的论文包括计算机科学与人工智能实验室和电气工程与计算机科学系EECS的研究生Ferran Alet和Lin Yen-Chen Lin工程学院卓越教学教授Tomas Lozano-PerezLeslie P. Kaelbling松下计算机科学与工程系教授EECS助理教授Phillip Isola以及MechE副教授Alberto Rodriguez。多样化的数据为什么要专注于推动行为Rodriguez解释说建模涉及物体和表面之间摩擦的推动动力学对于更高级别的机器人任务至关重要。考虑一下可以玩Jenga的视觉和技术上令人印象深刻的机器人这是Rodriguez最近合作设计的。罗德里格斯说“机器人正在执行一项复杂的任务但驱动该任务机制的核心仍然是推动受例如块之间的摩擦影响的物体。”Omnipush建立在RodriguezBauza和其他研究人员在操纵与机制实验室MCube中建立的类似数据集的基础上该数据集仅捕获了10个对象上的推入数据。在2016年将数据集公开后他们收集了研究人员的反馈。其中一个抱怨是认为缺乏对象多样性在数据集上受过训练的机器人努力地将信息推广到新的对象上而且也没有视频记录图像对于计算机视觉视频预测和其他任务很重要。因此如今对于他们的新数据集研究人员利用工业机器人手臂精确控制推进器基本上是垂直钢棒的速度和位置。当手臂推动物体时他们用已在电影虚拟现实以及研究中使用的“ Vicon”运动跟踪系统跟随物体还有一个RGB-D摄像机可将深度信息添加到捕获的视频中。研究的关键是构建模块化对象。由铝制成的均匀的中央部件看起来像四角星重约100克每个中心部分的中心和点都包含标记因此Vicon系统可以在1毫米内检测到其姿势。四个形状凹形三角形矩形和圆形的较小块可以磁连接到中心块的任何一侧。每块重量在31到94克之间但是额外的重量从60到150克不等可以掉入这些块的小孔中。所有类似拼图的物体在水平和垂直方向都对齐这有助于模拟形状和质量分布相同的单个物体的摩擦。不同侧面重量和质量分布的所有组合增加了250个唯一对象。每次推动时手臂会自动移动到距对象几厘米的随机位置。然后它选择一个随机方向并将对象推一秒钟。从停止的地方开始然后选择另一个随机方向并重复该过程250次。每次推送都会记录对象和RGB-D视频的姿势这些姿势可用于各种视频预测目的。每天花费12个小时来收集数据耗时两个星期总计超过150个小时。仅在手动重新配置对象时才需要人工干预。这些对象并没有专门模仿任何现实生活中的物品。取而代之的是它们旨在捕获现实世界对象的“运动学”和“质量非对称性”的多样性从而对现实世界对象的运动进行建模。然后机器人可以将质量分布不均匀的Omnipush对象的物理模型外推到重量分布不均相似的任何现实世界对象。“想象一下用四只腿推动桌子其中最大的重量超过了一只腿。当您推动桌子时您会看到它在沉重的腿上旋转必须重新调整。了解这种质量分布及其对结果的影响推动力是机器人可以用这组对象学习的东西。” Rodriguez说。推动新研究在一个实验中研究人员使用Omnipush训练了一个模型以预测被推物体的最终姿势只给出推入的初始姿势和描述。他们在150个Omnipush物体上训练了模型并在物体伸出的部分上对其进行了测试。结果表明经Omnipush训练的模型的准确度是在一些相似数据集上训练的模型的两倍。在他们的论文中研究人员还记录了其他研究人员可以用来比较的准确性基准。由于Omnipush会捕获推送的视频因此一种潜在的应用是视频预测。例如一个合作者现在正在使用数据集来训练机器人以实质上“想象”在两点之间的推动物体。在Omnipush上进行训练后将为机器人提供两个视频帧作为输入以显示其开始位置和结束位置的对象。机器人使用起始位置来预测所有未来的视频帧以确保对象到达其结束位置。然后它以与每个预测视频帧匹配的方式推动对象直到到达具有结束位置的帧。“机器人会根据实际情况问“如果我执行此操作对象将在此帧中的什么位置”然后它选择的操作将最大化使对象到达所需位置的可能性”鲍萨说。“它通过首先想象图像在按下后如何改变像素来决定如何移动对象。”卡内基梅隆大学计算机科学与机器人学教授Matthew T. Mason表示“ Omnipush包括对象运动的精确测量以及视觉数据用于机器人与对象之间的重要相互作用。” “机器人研究人员可以使用这些数据来开发和测试新的机器人学习方法……这将推动机器人操纵技术的不断发展。”未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能互联网和脑科学交叉研究机构。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市云脑研究计划构建互联网城市云脑技术和企业图谱为提升企业行业与城市的智能水平服务。 如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”