精华内容
下载资源
问答
  • 有关机器人会议论文投稿时间: https://blog.csdn.net/robinvista/article/details/53162247

    有关机器人的会议和论文投稿时间:
    https://blog.csdn.net/robinvista/article/details/53162247

    展开全文
  • 机器人导航两篇顶级会议论文解析 一.一种用于四旋翼无人机室内自主导航的卷积神经网络特征检测算法 标题:A Convolutional Neural Network Feature Detection Approach to Autonomous Quadrotor Indoor Navigation ...

    机器人导航两篇顶级会议论文解析

    一.一种用于四旋翼无人机室内自主导航的卷积神经网络特征检测算法

    标题:A Convolutional Neural Network Feature Detection Approach
    to Autonomous Quadrotor Indoor Navigation

    作者:Adriano Garcia, Sandeep S. Mittal, Edward Kiewra and Kanad
    Ghose

    来源:2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)

    摘要

    用于识别和定位室内结构特征点的目标检测技术,目前同样可以应用于四旋翼无人机室内自动导航。四旋翼无人机上搭载的前向单目相机拍摄的视频流会实时传输到外场的主机系统,并且在外场主机上运行了一套基于卷积神将网络的目标检测算法来识别一些特殊的特征点,例如死角、门和一些走廊的十字口。利用被识别物体周围边界框的像素级尺寸,使用支持向量回归(SVR)模型,可以准确估计到交叉口、终端和入口的距离,生成飞行控制命令,并且在飞行速度接近2m /s时实现一致的实时自主导航。
    在这里插入图片描述
    图1 区别于传统的图像处理方法,本文使用卷积神经网络来同时对结构特征点进行检测和定位,这使得我们的方法可以处理更多类的目标检测问题。图示为本文算法的结构流程,无人机飞行过程中的视频流和导航数据救人无人机API TX/RX节点,其中视频流输入到YOLO3结构特征点探测器节点并输出边界检测数据。在控制节点中,边界检测数据进入近邻估计算法并结合无人机导航数据进入导航算法流程,并计算得到无人机飞控指令。最后得到的指令同样通过无人机API接口传入到无人机,控制无人机行动。我们使用基于CNN的YOLO架构来训练和执行预测模型,实验证明这种做法可信度非常高并且可以持续的检测和定位结构特征点,并且平均速度可以达到25帧每秒。
    在这里插入图片描述
    图2 本文使用的CNN视觉模型是一种目标检测模型,该模型经过训练和可以对交叉口、死角和一些其他例如们和海报板等多种走廊特征进行检测和定位。我们之前的工作是使用图像处理方法来进行特征点检测,但这种方式不能很好的对光照条件进行很好的兼容。本文的CNN-based特征识别方法则没有这种限制,并且可以对目前进行的所有试验场景很好的兼容工作。本文用的YOLO3网络共有53个卷积层,batch_size为64,learning_rate设置为0.001。上图所示为使用YOLO网络来对目标进行边界提取标记。
    在这里插入图片描述
    图3 估计真实世界中相机到这些标记特征的距离是非常必要的,这样可以把目标检测的标记位置与真实世界中的位置进行对应,进而保证无人机控制模块可以产生准确的指令。我们使用相机校准技术来获得对应关系模型来讲图像平面像素长度转换到真实世界的距离值。我们需要记录实际的真值测量值并且分析检测到的特征点是如何在像素平面变化的。经过我们的实验,我们的YOLO检测系统可以检测和定位前向55m到2m之家你的距离。上图所示为深度值估计结果,经过统计分析,最高的误差达到3.4m,平均误差在0.75m。
    在这里插入图片描述
    在这里插入图片描述在这里插入图片描述图4 为了验证我们基于CNN系统的有效性,我们为YOLO_based的自主导航视觉系统在一系列不同的走廊场景进行了实际飞行测试,场景包括:直线飞行经过宽的和窄的走廊;飞行经过转弯;在多走廊路径中进行持续自动飞行。上述三图分别为平面多路径展示图以及测试结果统计表。经过测试,路径A中的最高时速比其他飞行过程中的大一些,这是因为无人机在两个拐点之间飞行了较长的距离,因此无人机有充足的时间加速到最高时速。在飞行测试过程中,发生了一些撞墙事件,但是都被控制节点很好的解决掉并且完成了整体的飞行。

    二.基于先验雷达地图约束的视觉惯导定位

    标题:Visual-Inertial Localization with Prior LiDAR Map
    Constraints

    作者:Xingxing Zuo, Patrick Geneva, Yulin Yang, Wenlong Ye, Yong
    Liu, and Guoquan Huang

    来源:IEEE/RSJ International Conference on Intelligent Robots
    and Systems (IROS),2019

    摘要

    在本文中,我们开发了一种低成本的双目相机-惯导定位系统,该系统有效利用多状态约束卡尔曼滤波(MSCKF)的视觉惯性里程计同时利用先验雷达地图提供有界误差的三维导航。除了VIO中使用的标准的稀疏视觉特征点测量,在紧耦合的MSCKF更新中利用了之前的激光雷达地图上的视觉半直接法的全局注册,从而校正了累积误差。这种视觉和激光雷达点云之间的交叉模式约束得到了特别的解决。该方法在蒙特卡罗模拟和实际实验中都得到了验证,结果表明,通过不同的感知模式创建点云之间的激光雷达地图约束极大地改善了标准VIO并提供了有界误差性能。
    在这里插入图片描述
    图1. 提出的带有先验雷达地图约束的视觉惯导定位系统在EurocMac数据集上运行。先验的激光雷达地图是根据高度添加颜色的,而真值和估计的轨迹分别用青色和粉红色绘制。由一系列关键帧重建的半稠密点云以黑色表示。
    在这里插入图片描述
    图2.所提出的定位系统的数据流,双目和惯导测量可以从左面看到,所提出地图约束的子系统用红色框强调。
    在这里插入图片描述
    图3.没有深度细化的视觉半稠密重建(左)在房间的墙壁上有高水平的噪音。相比之下,深度细化的视觉半稠密重建(右)沿边界显示出较低的噪声(见插图)。这些点云是EurocMav V1 02中等序列的一个小子集。
    在这里插入图片描述
    表一.蒙特卡罗模拟参数

    表二.具有不同层次的先验地图噪声的均方根误差
    在这里插入图片描述
    图5.合成Gazebo数据集的鸟瞰图。机器人长达836米的groundtruth轨迹用红色表示。机器人的最大速度设定为2.5 m/s。图6.0.03的噪声下标准MSCKF和具有先验激光雷达地图的MSCKF的方位和位置RMSE的仿真结果。

    表三.对于不同段长度的相对位姿误差
    在这里插入图片描述
    图7.相对轨迹误差统计的箱线图。中间的盒子跨越了第一和第三个四分位数,而胡须是上限和下限。从颜色上看,带有激光雷达地图约束的平移误差最好。
    在这里插入图片描述
    表四.添加地图的MSCKF、标准MSCKF和VINS-Mono的变种在5段数据集上的平均绝对轨迹误差(左)。两个系统线程的时间信息:(I)稀疏视觉惯导里程计和(II)先验地图约束(右)。

    展开全文
  • 这是一个简单的Twitter和Mastodon机器人程序,用于发布讽刺性的(大多是非理性的)图书馆会议论文标题。 主文件已被大量注释,因此您应该能够阅读代码。 它使用预先填充的陈词滥调列表,澳大利亚十大Twitter趋势...
  • ICRA 2020机器人领域顶级会议部分获奖候选论文如下: 大会最佳及机制与设计类最佳论文:Design and Control of Roller Grasper V2 for In-Hand Manipulation 铰接式滚筒机械手 [作者团队]:斯坦福大学(一作:上海...

    ICRA 2020 IEEE International Conference on Robotics and Automation

    ICRA 2020机器人领域顶级会议部分获奖候选论文如下:

    img

    大会最佳及机制与设计类最佳论文:Design and Control of Roller Grasper V2 for In-Hand Manipulation


    img

    大会最佳及人机交互类最佳论文:Preference-Based Learning for Exoskeleton Gait Optimization


    img

    大会最佳论文:Prediction of Human Full-Body Movements with Motion Optimization and Recurrent Neural Networks


    img
    机器人操纵类最佳论文:6-DOF Grasping for Target-driven Object Manipulation in Clutter


    img

    自动化类最佳论文:Form2Fit: Learning Shape Priors for Generalizable Assembly from Disassembly


    img

    自动化类最佳论文:Securing Industrial Operators with Collaborative Robots: Simulation and Experimental Validation for a Carpentry task

    • 使用协作机器人保护工业操作员的安全:木工任务的仿真和实验验证
    • [作者团队]:IMS实验室(波尔多大学&法国国家科研究中心& UMR 5218)
    • [论文链接]:https://hal.inria.fr/hal-02418739v2/document

    img

    认知机器人类最佳论文:Semantic Linking Maps for Active Visual Object Search


    img机器人视觉类最佳论文:OmniSLAM: Omnidirectional Localization and Dense Mapping for Wide-baseline Multi-camera Systems

    • 宽基线多摄像头系统的全方位定位和密集映射
    • [作者团队]:韩国汉阳大学&苏黎世联邦理工学院 (ETH Zürich)
    • [论文链接]:https://arxiv.org/abs/1909.08605

    img

    机器人视觉类最佳论文:Graduated Non-Convexity for Robust Spatial Perception: From Non-Minimal Solvers to Global Outlier Rejection

    • 将渐进式非凸性用于稳健的空间感知:从非最小解到全局离群值抑制
    • [作者团队]:MIT&剑桥大学
    • [论文链接]:https://arxiv.org/abs/1909.08605

    img
    无人机类最佳论文:Design and Autonomous Stabilization of a Ballistically Launched Multirotor


    在这里插入图片描述
    医疗机器人类最佳论文:Fault Tolerant Control in Shape-Changing Internal Robots

    展开全文
  • RSJ:2009年~2019年机器人技术(IEEE机器人和自动化国际会议&RSJ智能机器人与系统国际会议&机器人技术:科学与系统&机器人学报)历年最佳论文简介及其解读 目录 会议期刊来源 论文介绍 Robotic ...

    Paper之IEEE&RSJ:2009年~2019年机器人技术(IEEE机器人和自动化国际会议&RSJ智能机器人与系统国际会议&机器人技术:科学与系统&机器人学报)历年最佳论文简介及其解读

     

     

     

    目录

    会议期刊来源

    论文介绍

    Robotic Pick and Place of Novel Objects in Clutter with Multi Affordance Grasping and Cross Domain Image Matching通过多 affordance 抓取和跨域图像匹配完成杂乱环境下对新物体的捡放操作

    Using Simulation and Domain Adaptation to Improve Efficiency of Deep Robotic Grasping使用仿真和领域适应来提高深度机器人抓取的效率

    Dex Net 2.0: Deep Learning to Plan Robust Grasps with Synthetic Point  Clouds and Analytic Grasp Metrics  Dex-Net 2.0:利用合成点云进行鲁棒抓取和分析抓取指标的深度学习

    Deep Predictive Policy Training using Reinforcement Learning深度预测策略的强化学习训练方法  

    Learning Agile and Dynamic Motor Skills for Legged Robots  面向腿式机器人的敏捷动态特性的技能学习  

    Making Sense of Vision and Touch: Self Supervised Learning of  Multimodal Representations for Contact Rich Tasks  理解视觉和触觉:接触任务多模态表达的自监督学习  

    A Magnetically Actuated Untethered Jellyfish Inspired Soft  Milliswimmer  一个受水母启发的磁力驱动软体游泳机器人  

    Robust Visual-Inertial State Estimation with Multiple Odometries and Efficient Mapping on an MAV with Ultra-Wide FOV Stereo Vision鲁棒多测度视觉惯性状态估计及其在具有超广角立体视觉的微型飞行器上的高效映射


     

     

    相关文章
    AI之Robot:机器人Robot的简介、发展历史、案例应用之详细攻略
    Paper之IEEE&RSJ:2009年~2019年机器人技术(IEEE机器人和自动化国际会议&RSJ智能机器人与系统国际会议&机器人技术:科学与系统&机器人学报)历年最佳论文简介及其解读

     

    会议期刊来源

    IEEE International Conference on Robotics and Automation IEEE机器人和自动化国际会议
    IEEE/RSJ International Conference on Intelligent Robots and Systems IEEE/RSJ智能机器人与系统国际会议
    Robotics: Science and Systems·A Robotics Conference 机器人技术:科学与系统·机器人技术会议
    IEEE Transactions on Robotics IEEE机器人学报

     

     

    论文介绍

    Robotic Pick and Place of Novel Objects in Clutter with Multi Affordance Grasping and Cross Domain Image Matching
    通过多 affordance 抓取和跨域图像匹配完成杂乱环境下对新物体的捡放操作

    论文作者 Andy Zeng, Shuran Song, Kuan-Ting Yu, Elliott Donlon, Francois R. Hogan, Maria Bauza, Daolin Ma, Orion Taylor, Melody Liu, Eudald Romo, Nima Fazeli, Ferran Alet, Nikhil Chavan Dafle, Rachel Holladay, Isabella Morona, Prem Qu Nair, Druck Green, Ian Taylor, Weber Liu, Thomas Funkhouser, Alberto Rodriguez
    论文地址 IEEE International Conference on Robotics and Automation, 2018
    https://ieeexplore.ieee.org/abstract/document/8461044
    论文摘要 本文介绍了一种在杂乱环境中能够抓取和识别已知和新奇物体的机器人拾取和放置系统。该系统的关键新特性是,它可以处理广泛的对象类别,而不需要针对新对象的任何特定于任务的训练数据。为了实现这一目标,首先使用一种不确定类别的启示预测算法在四种不同抓取原语行为中进行选择。然后,它通过一个跨域图像分类框架来识别选中的对象,该框架将观察到的图像与产品图像相匹配。由于产品图像可以很容易地用于广泛的对象(例如,从web上),因此该系统可以开箱即用地用于新对象,而不需要任何额外的训练数据。详尽的实验结果表明,我们的多启示抓取算法对杂波中各种各样的目标都有较高的成功率,我们的识别算法对已知和新抓取的目标都有较高的准确率。这种方法是麻省理工-普林斯顿团队系统的一部分,该系统在2017年亚马逊机器人挑战赛的装载任务中获得了第一名。所有代码、数据集和预先训练的模型都可以在http://arc.cs.princeton.edu上在线获得
    研究问题 人类可以在仅掌握少量先验知识的前提下识别和抓取陌生目标物,这一能力  一直是机器人研究的灵感来源,也是很多实际应用的核心。为此,提出一种能在  杂乱环境下对新目标物进行识别和捡放操作的机器人系统,整个系统可直接用于  新目标物(在测试过程中首次出现),而无需额外的数据收集或重新训练,如下  图所示。
    研究方法

    专门设计该机器人识别捡放系统,该系统由两部分组成:1)具有四个基础  行为的多模式抓取框架,该框架使用深度卷积神经网络(ConvNets)来预测场景  affordance,而无需事先对目标物进行分割和分类。2)跨域图像匹配框架,用于  通过将抓取的对象与产品图像进行匹配来识别抓取的对象,该框架使用了  ConvNet 架构,该架构可直接用于新目标物而无需重新进行训练。这两部分互相  配合,可以在杂乱的环境中完成对新目标物的抓取操作。  
    机器人吸取和抓取的 affordance 预测如下图所示,考虑各个视角的 RGBD 图  像,可通过一个全卷积残差网络估算出每张图片的吸取 affordance。然后,将预  测汇总在 3D 点云上,并基于表面法线生成向下吸取或侧向吸取的建议。并行地,  我们将 RGB-D 图像合并为 RGB-D 高度图,将其旋转 16 个不同的角度,并估计  每个高度图的水平抓取。这有效地生成了针对 16 个不同抓取角度的 affordance  图,从中可得到向下抓取和其他抓取的建议。

    新物体的识别框架如下图所示。训练一个双流的卷积神经网络,其中一个流  计算得到产品图像的 2048 维特征向量,而另一个流计算得到观察图像的 2048 维  特征向量,并对两个流进行优化,以使相同图像的特征更加相似,反之则不同。  在测试期间,已知对象和新对象的图像都映射到公共特征空间上。通过在相同的  特征空间找到与其最近的特征来匹配来识别它们。

    研究结果 提出一种系统,该系统能够以很少的先验信息(少数产品图片)来拾取和识  别新对象。该系统首先使用与类别无关的 affordance 预测算法在四种不同的抓取  动作元之间进行选择,然后通过将抓取的对象与它们的产品图像进行匹配来识别  抓取的对象。通过评估证明,该机器人系统可以拾取并在杂乱无章的环境中识别  出新物体。

     

     

     

    Using Simulation and Domain Adaptation to Improve Efficiency of Deep Robotic Grasping
    使用仿真和领域适应来提高深度机器人抓取的效率

    论文作者 Konstantinos Bousmalis, Alex Irpan, Paul Wohlhart, Yunfei Bai, Matthew  Kelcey, Mrinal Kalakrishnan, Laura Downs, Julian Ibarz, Peter Pastor, Kurt Konolige,  Sergey Levine, Vincent Vanhoucke
    论文地址 论文出处:IEEE International Conference on Robotics and Automation, 2018
    论文地址:https://ieeexplore.ieee.org/document/8460875
    论文摘要 检测和收集带注释的视觉抓取数据集来训练现代机器学习算法是非常耗时和昂贵的。一种吸引人的替代方法是使用现成的模拟器来呈现合成数据,并为其自动生成底层真值注释。不幸的是,单纯根据模拟数据训练的模型常常不能推广到现实世界。我们研究如何将随机模拟环境和领域适应方法扩展到训练抓取系统从原始单眼RGB图像中抓取新的目标。我们对我们的方法进行了广泛的评估,总共有超过25000个物理测试掌握,研究了一系列的模拟条件和领域适应方法,包括一种新的扩展的像素级领域适应,我们称之为GraspGAN。我们表明,通过使用合成数据和领域适应,我们能够将实现给定性能水平所需的真实世界样本数量减少50倍,只使用随机生成的模拟对象。我们还表明,仅使用未标记的真实世界数据和我们的GraspGAN方法,我们获得了真实世界中没有任何标签的抓取性能,与939,777个标记的真实世界样本的抓取性能相似。
    研究问题 收集带注释的视觉抓取数据集以训练现代机器学习算法可能是非常耗时的。  一个替代方法是使用现成的模拟器来合成数据,这样就可以自动产生这些数据的  真实标注。不幸的是,仅基于模拟数据训练的模型通常无法泛化到现实世界。研  究如何将随机模拟环境和域适应方法应用到真实场景,训练一种抓取系统,可以  通过原始 RGB 图像中进行规划,抓取新的目标物。
    研究方法

    研究模拟环境中的 3D 目标模型、模拟的场景和模拟的动力学如何影响机器  人最终的抓取性能,以及将模拟与真实场景集成以实现最大程度的迁移。具体方  法如上图所示。  
    (a)为像素级的域适应模型 GraspGAN 的概述。从仿真器中得到的图像元  组 x  s 并输入到生成器 G 中,生成真实版本的图像 x  f,鉴别器 D 获得未标注的真  实世界图像 x  t 和 x  f,并经过训练以区分它们。真实的和经过适应的图像也被送到  抓取预测网络 C 中,一同进行并行训练。因此,生成器 G 从鉴别器 D 和预测器  C 中获得反馈,以使适应的图像看起来更加真实并保持其语义信息;(b)为生  成器 G 和鉴别器 D 的体系结构;(c)为 DANN 模型,其中 C1包含 7 个卷积层,  C2 包含 9 个卷积层。

    研究结果 研究将模拟数据合并到基于学习的抓取系统中的方法,以提高抓取性能并减  少数据需求。通过使用合成数据和域适应,仅使用少量随机生成的模拟数据,就  可以达到给定性指标的 50 倍。还表明,仅使用未标注的真实数据和 GraspGAN  的方法,就可以在没有任何真实数据标注的情况下获得与真实世界相同的抓取性  能。

     

     

     

    Dex Net 2.0: Deep Learning to Plan Robust Grasps with Synthetic Point  Clouds and Analytic Grasp Metrics  
    Dex-Net 2.0:利用合成点云进行鲁棒抓取和分析抓取指标的深度学习

    论文作者 Bohg Jeffrey Mahler, Jacky Liang, Sherdil Niyaz, Michael Laskey, Richard  Doan, Xinyu Liu, Juan Aparicio Ojea, and Ken Goldberg  
    论文地址 论文出处:Robotics: Science and Systems, 2017  
    论文地址:https://arxiv.org/pdf/1703.09312.pdf
    论文摘要 为了减少对健壮机器人抓取计划进行深度学习的数据收集时间,我们研究了从Dex-Net 1.0中数以千计的3D模型生成的670万点云、抓取和分析抓取指标的合成数据集进行的随机摆拍训练。我们使用得到的数据集dx - net 2.0来训练一个抓取质量卷积神经网络(GQ-CNN)模型,该模型可以快速预测从深度图像抓取成功的概率,其中抓取指定为相对于RGB-D传感器的爪的平面位置、角度和深度。实验了1000次试验在ABB弓比较掌握规划方法扣带回对象表明GQ-CNN训练只有合成数据从Dex-Net 2.0可以用来计划掌握在0.8秒93%的成功率与敌对的几何和8个已知的对象是3倍的速度比注册点云的预先计算的数据集和索引把握对象。Dex-Net 2.0抓取计划在包含10个新刚性对象的数据集上也拥有最高的成功率,在包含40个新家居对象的数据集上实现了99%的精度(69个抓取中有一个假阳性被归类为鲁棒),其中一些对象是铰接的或可变形的。代码、数据集、视频和补充材料可以在http://berkeleyautomation.github找到
    研究问题 为了减少采用深度学习进行鲁棒机器人抓取策略学习所需的数据收集时间,  探索了从 670 万点云,抓取姿态和抓取指标的合成数据集进行训练,这些数据是  从 Dex Net 1.0 的数千个三维模型中以随机姿势在桌子上生成的。利用得到的数据集 Dex-Net 2.0 训练抓取质量卷积神经网络(GQ-CNN)模型,该模型可快速  从深度图像预测抓取成功的概率,其中抓取被指定为相对于 RGB-D 传感器的夹  持器的平面位置、角度和深度。
    研究方法 研究基于深度点云的处于桌面上的单刚体的平行爪抓取规划问题。学习一个  函数,它以一个候选抓取和一个深度图像作为输入,并输出一个鲁棒性的估计值,  或者在传感和控制的不确定性下的成功概率。  
    Dex Net 2.0 的架构如下图所示。GQ-CNN 是抓取质量卷积神经网络,它是  经离线训练的,使用由 670 万个合成点云、相关鲁棒抓取指标的数据集 Dex-Net  1.0 数据集,可从深度图像预测鲁棒候选抓取。当一个物体呈现给机器人时,深  度相机会返回一个三维点云,识别出一组几百个候选抓取点。GQ-CNN 迅速确定  了最稳健的抓取位姿,并由 ABB YuMi 机器人执行操作。
    研究结果 开发了一个抓取质量卷积神经网络(GQ-CNN)体系结构,它可以预测基于  点云模型抓取的稳定性,并在 Dex-2.0 数据集上对其进行训练,它是一个包含 670  万点云、平行抓取和稳定性抓指标的数据集。在 1000 多个物理评估中,发现 DexNet  2.0 抓取规划器是一种可靠的、速度比基于点云配准方法快 3 倍的,并且在  40 个新目标的测试集上具有 99%的精度的抓取规划器。

     

     

     

     

    Deep Predictive Policy Training using Reinforcement Learning
    深度预测策略的强化学习训练方法  

    论文作者

    Ali Ghadirzadeh, Atsuto Maki, Danica Kragic and Marten Bjorkman.

    论文地址 论文出处:Robotics: Science and Systems,2019  
    论文地址:https://arxiv.org/pdf/1903.11239.pdf
    论文摘要 由于感知运动过程的内在潜伏期,熟练的机器人任务学习最好通过预测动作策略来实现。然而,训练这样的预测策略是具有挑战性的,因为它需要找到整个动作持续期间的运动激活轨迹。我们提出了一个数据高效的深度预测策略训练(DPPT)框架,该框架采用深度神经网络策略架构,将图像观察映射到一系列的运动激活。该体系结构由三个子网络组成,它们被称为感知、策略和行为的超层。感知超层和行为超层分别强制提取用合成和模拟训练样本训练的视觉和运动数据。策略超层是一个具有更少参数的小子网络,用于映射抽象流形之间的数据。利用策略搜索强化学习的方法对每一个任务进行训练。我们通过训练PR2机器人熟练抓取物体和投掷球的预测策略来证明所提出架构和学习框架的适用性。该方法的有效性证明,这些任务训练仅使用约180个真实的机器人尝试定性终端奖励。
    研究问题 由于感知运动过程的固有延迟,机器人任务学习最好通过预测动作策略来实  现。然而,训练这样的预测策略是具有挑战性的,因为它涉及到在整个动作过程  中找到运动激活的轨迹。本文中,提出一个基于深度神经网络的数据高效深度预  测策略训练(DPPT)框架,将图像观测映射到一系列的运动激活。该体系结构  由三个子网络组成,分别称为感知层、策略层和行为层。感知层和行为层迫使我  们对视觉和行为进行抽象分别用合成训练样本和模拟训练样本训练数据。策略层  是一个较小的子网络,具有较少的参数来映射抽象流形之间的数据。使用策略搜  索强化学习的方法对每个任务进行训练。通过在 PR2 机器人上训练熟练抓取和  投球的预测策略。下图表示在机器人抛掷 ball 过程的瞬间图。
    研究方法 由感知层、策略层和行为层组成的深度预测策略体系结构如下图所示。作为  网络输入,给出了一个中心 RGB 图像。感知层将图像数据抽象为与任务相关的  对象对应的若干空间位置。策略层将抽象状态随机映射到操作流形中的一个点。  最后,针对给定的采样动作,行为层生成一长轨迹的电机指令,并应用于机器人  连续 T 个时间步长。
    研究结果 文章证明了所提出的结构和学习框架的适用性。该方法的有效性通过以下事  实得到了证明:这些任务仅使用 180 次真正的机器人进行训练,并提供定性的最  终奖励。

     

     

     

     

    Learning Agile and Dynamic Motor Skills for Legged Robots  
    面向腿式机器人的敏捷动态特性的技能学习  

    论文作者

    Jemin Hwangbo, Joonho Lee, Alexey Dosovitskiy, Dario Bellicoso,  Hoonho Lee, Vassilios Tsounis, Vladlen Koltun and Marco Hutter.  

    论文地址 论文出处:Science Robotics, 2019  
    论文地址:https://arxiv.org/pdf/1901.08652.pdf
    论文摘要 有腿机器人是机器人领域最大的挑战之一。动物的动态和敏捷的动作是无法用现有的方法模仿的,而现有的方法是由人类制作的。一个引人注目的替代方案是强化学习,它需要最少的工艺,并促进控制策略的自然进化。然而,到目前为止,对有腿机器人的强化学习研究主要局限于仿真,在实际系统中部署的例子很少,而且比较简单。主要原因是,用真正的机器人训练,尤其是动态平衡系统,是复杂和昂贵的。在目前的工作中,我们介绍了一种方法来训练一个神经网络策略在模拟和转移到一个最先进的腿系统,从而利用快速,自动化,和经济有效的数据生成方案。该方法被应用于ANYmal机器人,一个成熟的中型狗大小的四足系统。通过使用模拟训练的策略,四足机器人可以获得比以往方法更好的运动技能:ANYmal能够精确且高效地执行高水平的身体速度指令,比以前跑得更快,即使在复杂的配置下也能从坠落中恢复过来。
    研究问题 近年来,腿式机器人是机器人技术中最大的挑战之一。动物的动态和敏捷的  动作是现有的方法无法模仿的,而这些方法是由人类精心设计的。一个令人信服  的替代方案是强化学习,它需要最少的技能并促使控制策略的自然演化更新。然  而,到目前为止,对腿式机器人的强化学习研究主要局限于仿真,在实际系统中  应用比较简单的例子较少。主要原因是,使用真正的机器人进行训练,尤其是使  用动态平衡系统,既复杂又昂贵。在本论文中,我们提供了一种新的方法,在模  拟中训练一个神经网络策略,并将其迁移到一个最先进的腿系统,因此我们利用  快速、自动化和经济有效的数据生成方案。
    研究方法 对于腿式机器人的敏捷动态性技能学习的过程,首先是系统建模,针对于四  足机器人的物理参数的辨识以及确定机器人动态参数的不确定性指标,这个过程  可能需要环境参数估计,物理动态性能估计等;其次是训练驱动神经网络,这个  过程一般通过构建机器人状态到机器人电机控制的映射函数实现,随着深度神经  网络的广泛认可,这样的非线性映射函数现大多采用深度神经网络拟合;然后在  仿真中完成基于强化学习的驱动神经网络的学习过程,最后将训练好的驱动神经  网络拟合的控制策略应用在实际的系统中。
    整个系统的控制网络由三部分构成,首先是策略网络,用于将当前的观测量  和之前的关节状态量映射到目标关节量(下一时刻关节控制量),然后是驱动网  络,用于在刚体关节控制中将历史关节状态映射到关节力矩控制量上,机器人状  态量有各关节的位置信息 q 与速度信息 u。
    研究结果 应用于一个复杂的中型犬大小的四足系统 ANYmal 机器人,使得在模拟中  训练的四足机器人的运动策略超越了以前的方法,ANYmal 能够精确和高效地遵  循高水平的身体速度指令,比以前跑得更快,甚至在复杂的配置中也能从跌倒中  恢复过来。

     

     

     

     

    Making Sense of Vision and Touch: Self Supervised Learning of  Multimodal Representations for Contact Rich Tasks  
    理解视觉和触觉:接触任务多模态表达的自监督学习  

    论文作者

    Michelle A. Lee, Yuke Zhu, Krishnan Srinivasan, Parth Shah, Silvio  Savarese, Li Fei-Fei, Animesh Garg, and Jeannette Bohg  

    论文地址 论文出处:IEEE International Conference on Robotics and Automation,2019  
    论文地址:https://ieeexplore.ieee.org/abstract/document/8793485
    论文摘要 在非结构化环境中,接触丰富的操作任务通常需要触觉和视觉反馈。要手动设计一个结合了这些不同特点的模式的机器人控制器并非易事。虽然深度强化学习在学习高维输入的控制策略方面显示出了成功,但由于样本的复杂性,这些算法通常难以直接在真实机器人上训练。在本文中,我们使用自我监督来学习我们的感觉输入的一个紧凑的多模态表示,然后可以用来提高我们的策略学习的样本效率。在peg插入任务上评估我们的方法,我们表明,它在不同的几何、配置和间隙上得到了推广,同时对外部扰动具有鲁棒性。我们也系统地研究了不同的自我监督学习目标和表现学习架构。给出了仿真结果和实际机器人的仿真结果。
    研究问题 非结构化环境中需要接触的操作任务通常需要触觉和视觉反馈。但是,人工  设计融合各个不同模态的机器人控制器并非易事。尽管深度强化学习已经成功地  应用于针对高维输入的控制策略学习,但由于样本复杂性,这些算法通常难以部  署在实际的机器人上。提出使用自监督来学习感官输入的紧凑和多模态表示,以  用来提高策略学习的样本效率。
    研究方法

    以学习机器人执行需要接触操作任务的策略为目标。希望评估融合多传感器  信息的价值以及多模态表示在跨任务传递的能力。为了提高样本效率,首先学习  了基于神经网络的多传感器数据特征表示。得到的压缩特征向量用作通过强化学  习学习到的策略的输入。  
    将操作任务建模为一个有限时间的离散马尔科夫决策过程 M,状态空间 S,  动作空间 A,状态转移动力学 T: S ×A → S,初始状态分布 ρ0,回报函数 r: S ×A → R,时间 T,折扣系数 γ ∈(0,1],为了确定最优随机策略 π : S → P(A),  我们希望最大化期望折扣奖励。
    自监督多模态表示学习的神经网络结构如下图所示,该网络将来自三个不同  传感器的数据作为输入:RGB 图像、32ms 窗口上的 F/T 读数以及末端执行器的  位置和速度。它将这些数据编码并融合到一个多模态表示中,基于此,可以学习  包含接触操作的控制器。这种表示学习网络是通过自监督形式进行端到端训练的。

    我们将具有接触的操作作为一个无模型强化学习问题,研究它在依赖多模态  反馈以及在几何、间隙和构型不确定的情况下的性能。由于选择无模型,还消除  了对精确动力学模型的需要,这是存在接触的操作中的典型困难。

    研究结果  提出了一种新颖的模型,将异构感官输入编码为多模态表示。一旦经过训练,  当用作用于强化学习的浅层神经网络策略的输入时,该表示就保持固定。通过自  我监督来训练表示模型,从而无需手动标注。实验表明,需要接触的任务需要视  觉和触觉的多模式反馈,此外,还进一步证明了多模态表示可以很好地迁移到其  他新任务中。

     

     

     

     

    A Magnetically Actuated Untethered Jellyfish Inspired Soft  Milliswimmer  
    一个受水母启发的磁力驱动软体游泳机器人  

    论文作者

    Ziyu Ren , Tianlu Wang,Wenqi Hu , and Metin Sitti

    论文地址 论文出处:Robotics: Science and Systems, 2019
    论文地址:http://www.roboticsproceedings.org/rss15/p13.pdf
    论文摘要 无栓小型软机器人可以潜在地用于医疗保健和生物医学应用程序。它们可以进入小的空间,以可编程的方式重塑它们的身体,以适应非结构化的环境,并具有多样的动态行为。然而,目前的微型软机器人功能有限,限制了其在医疗领域的应用。利用磁软复合材料的形状可编程能力,我们提出了一种无拴软微机器人(jellyfishbot),它可以像水母一样游泳,通过时间和轨迹的不对称上下拍打它的下垂。它的游动速度和方向可以通过调节外部振荡磁场的大小、频率和方向来控制。我们演示了这种水母机器人可以执行多项对医疗应用有用的任务,例如运送药物、堵塞狭窄的管道或血管,以及在基于超声成像的指导下修补目标区域。在本文中介绍的毫微机器人可以用于完全充满液体的器官,如膀胱或充气的胃。
    研究问题 不受限制的小型软机器人可以用于医疗和生物医学应用。他们可以进入狭小  空间并以可编程方式改变形状,以适应非结构化环境并具有多种动态行为。但是,  当前的微型软机器人的功能有限,从而限制了它们在医疗中的应用。利用磁性软  复合材料形状可编程的优势,提出一种不受束缚的软体机器人,它可以像水母一  样在时间和轨迹上不对称地上下跳动,可以通过调节外部振荡磁场的大小,频率  和方向来控制其游泳速度和方向。
    研究方法 该机器人的设计如上图所示,机器人主体由两部分组成:主动部分像肌肉一  样工作以实现划桨运动,而被动部分则填充了主动部分的间隙,使身体成为连续  的流体动力表面。身体的主动部分由软磁性材料制成,可在外部 B 场下变形。通  过将钕铁硼(NdFeB)磁性微粒(MQP-15-7,Magnequench;平均直径:5μm)  与聚合物(Ecoflex 00-10,Smooth-On Inc.)混合来制备材料,质量比为 1:1。将该混合物浇铸到涂覆有聚对二甲苯-C 的聚合物(甲基丙烯酸甲酯)(PMMA)板  上。聚合物在 60°C 固化形成厚度约为 96μm 的薄膜(下图 b-i)。使用激光切  割机从该薄膜上切出主动部分的几何形状(下图 b-ii)。从平板上移开主动部分  后,使用移液器将水滴滴在其上。活性部分可以立即包裹水滴并在表面张力作用  下形成椭圆形(下图 b-iii)。然后将有效成分放入冰箱进行冷冻,以保持椭圆形  的形状。椭圆形主动部分在振动样品磁力计(VSM,EZ7,Microsense)内部被  1.8T 均匀磁场磁化。磁化后,用非磁性弹性体(Ecoflex 00-10)填充主动部分的  间隙以形成厚度约为 20μm 的薄层薄膜(下图 b-iv)。最终机器人如下图 a-ii 所  示。
    研究结果 提出了一种使用磁性软复合材料制作的软体游泳机器人。只需调节外部磁场  的波形,频率和振荡方向即可实现对其控制。已经进行了初步研究以发现其推进  速度与输入控制信号之间的关系。当驱动频率增加时,由于流体动力阻尼力,机  器人的跳动幅度单调减小。实验数据和模型预测都显示了对于特定控制波形的最  佳驱动频率的存在。实验表明,该机器人可用于多种潜在医疗功能。

     

     

     

     

    Robust Visual-Inertial State Estimation with Multiple Odometries and Efficient Mapping on an MAV with Ultra-Wide FOV Stereo Vision
    鲁棒多测度视觉惯性状态估计及其在具有超广角立体视觉的微型飞行器上的高效映射

    论文作者 M. G. Mu ̈ller, F. Steidle, M. J. Schuster, P. Lutz, M. Maier, S. Stoneman, T. Tomic, and W. Sturzl
    论文地址 论文出处:IEEE International Conference on Intelligent Robots and Systems,2018
    论文地址:https://ieeexplore.ieee.org/document/8594117
    论文摘要 这里提出的飞行系统使用两对广角立体摄像机和地图的兴趣在短时间内的一个大的地区。我们提出了一种配备了两对广角立体摄像机和一个惯性测量单元(IMU)的多机系统,用于鲁棒的视觉惯性导航和高效的全向三维制图。四台摄像机可以垂直覆盖240度的立体视场(FOV),这使得该系统也适用于洞穴等狭窄和封闭的环境。在该方法中,我们从四个广角摄像机合成八个虚拟针孔摄像机。由此产生的四个针孔立体声系统中的每一个都提供了一个独立的视觉测程(VO)输入。随后,基于四种运动估计与状态估计的一致性,将四种运动估计与IMU的数据进行融合。我们描述了视觉系统的配置和图像处理,以及传感器融合和测绘管道在MAV上。我们证明了我们的多vo方法的鲁棒性视觉惯性导航和目前的三维测绘实验结果。收起会议名称:——
    研究问题 近年来,微型飞行器(MAV)已用于各种各样的应用中。他们能够快速到达  感兴趣的点或获得以前难以或不可能到达的视角,这使它们对于诸如勘探,检查,  搜索和救援之类的任务变得非常有用。提出了一种配备两对广角立体相机和一个惯性测量单元(IMU)的多旋翼系统,以实现强大的视觉惯性导航和省时的全向  3D 映射,如下图所示。
    研究方法 四个摄像头垂直覆盖了 240 度的立体视野(FOV),这使得该系统也适用于  狭窄和狭窄的环境,例如洞穴。在所提出的方法中,从四个广角摄像头合成了八  个虚拟针孔摄像头。所得的四个合成针孔立体系统中的每一个都为独立的视觉测  距法(VO)提供输入。随后,基于它们与状态估计的一致性,将四个单独的运  动估计与来自 IMU 的数据融合。  
    研究结果 提出了配备有四个广角摄像机的 MAV。多达 240°的垂直立体视野使 MAV  能够感知其下方,上方和前方的对象,这与避障,路径规划和有效的映射等任务  有关。实验表明,由四个具有独立关键帧的立体测距仪提供的鲁棒运动估计,也  可以从较大的视野中受益,从而可以进行状态估计。

     

     

     

    文章内容主要参考:《《2019中国人工智能发展报告》—清华大学中国工程院知识智能中心》

     

     

    展开全文
  • 机器人路径规划经典论文

    热门讨论 2013-06-12 16:01:53
    我把自己从研一到研二收集的论文(绝大部分是IEEE旗下的会议论文,如IROS、ICRA等)分为几个目录:PRM,RRT,动态环境下的路径规划,困难区域问题和采样策略,打包上传,希望有志同道合的初学者和朋友用得到。
  • matlab精度检验代码液压阿特拉斯手臂的软机器人:具有碰撞检测和干扰补偿的联合阻抗控制 作者:乔纳森·冯达姆(Jonathan Vorndamme),莫里茨·沙皮尔(Moritz Schappler),亚历山大·特德泰德(AlexanderTö...
  • 学生Zeng Zeng在2020年机器人技术与自动化国际会议(ICRA)上被授予认知机器人技术最佳论文奖。  机器人专家的共同目标是使机器具有在现实环境中导航的能力,例如,我们所生活的无序,不完善的家庭。这些环境可能...
  • 学生Zeng Zeng在2020年机器人技术与自动化国际会议(ICRA)上被授予认知机器人技术最佳论文奖。  机器人专家的共同目标是使机器具有在现实环境中导航的能力,例如,我们所生活的无序,不完善的家庭。这些环境可能...
  • 还没从昨天获知第一篇会议论文被 ICIC 录用的兴奋中冷静下来,今天下午又收到《机器人》编辑部的邮件通知,有关蚁群算法的第2篇论文《基于修正蚁群算法的多机器人气味源定位策略研究》也被录用啦。呵呵,4月份不分...
  • 雷锋网 AI 科技评论按:第 33 届人工智能顶级国际会议 AAAI 2018 论文收录结果目前已公布,其中就收录了同济大学「智能大数据可视化实验室」开发的绘图机器人 AI-Sketcher 的相关论文。 AI-Sketcher 是一款能够...
  • 文 | Sheryc_王苏机器学习真是越来越火了,这从各大会议逐年增加的投稿量上就可见一斑:AAAI'21收到了9034篇投稿,NeurIPS'20收到了9467篇投稿,一...
  • 许多小伙伴都知道CVPR,ICCV,ECCV,但是他们的会议论文怎么下载呢。下面给大家介绍几个数据库。 在百度搜索IEEE Xplore。 在browse中点击conference。然后输入你要检索的会议名称,例如:机器人的顶会IROS 点击...
  • 来自Facebook 人工智能研究院的研究员在全球计算机视觉顶会 ECCV 2018 9.12慕尼黑会议上获得最佳论文称号,其中采用的先进算法值得你学习。
  • matlab说话代码LiaScript:交互式在线课程的领域特定语言 1.使用上方的箭头按钮进行导航 2.打开声音以输出文本。 请参阅以下项目: 的GitHub: LiaScript: ...我们的移动式Arduino机器人可用于教授编程,传感
  • 复杂的人工神经网络的出现开辟了新的艺术机会,但也带来了各种新的法律挑战。 诸如谷歌的 Deep Dream 之类的计算机程序可以拍摄图像并以类似于生物网络的方式对其进行处理,从而... 本次会议将探讨这个问题和其他问题。
  • 出现在第17届自治代理和MultiAgent系统会议论文集中。 国际自治代理和多代理系统基金会(AAMAS 2018)。 预印本可在以下位置获得: 指示 有一个.ova虚拟机文件,其中包含此存储库的可运行版本。 VM映像的链接是 ...
  • 本文授权转载自机器之心未经许可禁止二次转载CVPR 2019 将于 6 月 15 日 – 6 月 21 日在加利福尼亚州长滩举办,会议论文录取结果也已于近日公布。其中,来...
  • 柔索机器人的正向运动学方法求解工作空间,2008年的会议论文,很有分量的一篇文章
  • 在上周召开的国际机器人顶级会议IROS中,EPFL智能系统实验室的研究人员介绍了这款有空气驱动的可使用软体机器人。研究人员在他们的论文中解释,它吃起来的味道也许还不是很好,但是它是可生物降...
  • matlab双腿机器人代码在这里,您可以找到ICRA2020上发表的会议论文“ Coplementarity系统的接触感知控制器设计”的代码,以及最近提交给T-RO的论文扩展版本的代码。 依存关系 使用可以解决由该库生成的线性互补问题...
  • 006,769篇(截至到2012年2月15日按出版年统计),其中机器人(Robotics)学科论文980篇(发表在机器人期刊上的论文),980篇论文包括学术论文973篇、会议论文79篇、社论4篇、更正2篇、综述1篇等。    980篇文章...

空空如也

空空如也

1 2 3 4 5 ... 8
收藏数 142
精华内容 56
关键字:

机器人会议论文