精华内容
下载资源
问答
  • 机器人定位误差标定模型

    千次阅读 2019-05-17 08:18:14
    概述 以工业机器人为基础,构建柔性制造单元或柔性生产线,实现产品自动化、柔性化、智能化生产...然而,现有机器人技术发展水平与现实的应用之间尚存在较大的差距:绝对定位精度低,(在重复性应用中,采用示教的...

    概述

    以工业机器人为基础,构建柔性制造单元或柔性生产线,实现产品自动化、柔性化、智能化生产必将成为现代制造发展的重点。
    新型产业环境下,工业机器人的应用范围将越来越广泛、作业任务也将越来越精细复杂,为满足现代制造技术及工艺的发展需求,工业机器人必须具备高精度、高柔性、自我维护和感应识别等特性。然而,现有机器人技术发展水平与现实的应用之间尚存在较大的差距:绝对定位精度低,(在重复性应用中,采用示教的方法,较高的重复定位精度可以胜任。对于重复定位精度±0.05mm的机器人系统,其绝对定位精度一般只到2-3mm。)缺乏感知识别能力。
    高精度机器人的应用领域:汽车制造领域,航空航天制造领域,电子电器行业,军工制造领域。
    工业机器人误差补偿技术可以分为在线补偿和离线补偿两种方式。在线补偿是指借助激光跟踪仪、立体视觉测量系统、空间测量定位系统 w MPS(workspace Measuring and Positioning System)、力或加速度计等实时测量设备对机器人末端位姿进行高精度测量,得到末端位姿误差,并通过误差补偿算法直接对末端执行器的位姿进行修正。离线补偿也称为误差标定技术,是通过预先测量机器人多个关节构形下的末端位姿误差,辨识机器人运动学参数的准确值,或建立机器人空间定位误差库、温度误差库等,并将补偿数据预置在控制算法中,从而提高机器人实际作业时的位姿精度。
    在线补偿使用外部高精度测量设备来引导机器人提高运动精度。
    离线补偿通过建立离线的位姿误差模型,并将补偿数据预置到控制算法中。

    机器人运动学模型

    完备的运动学模型应具备三点特征:完整性(模型具备充足的参数来表达所有误差因素)、连续性(模型为几何参数的连续函数)、极小性(模型无冗余参数存在)。
    DH模型,在相邻两关节轴线平行时DH模型存在奇异性48,
    在相邻连杆坐标系中引入附加旋转参数的MDH模型。在相邻轴线垂直时出现奇异状态。49,50
    S模型51,利用6个参数直接描述相邻连杆坐标系之间的位姿关系,但失去了连续性。
    CPC模型,引入了冗余参数因子52,53。
    POE模型,基于旋量理论的指数积表达式,利用机器人零位下各转轴方向对其运动学进行描述,该模型满足 Roth 提出的完美模型的3 点特征,但是在实际应用中实现比较复杂。
    末端位姿测量:球杆仪,经纬仪,全站仪,三坐标测量机,摄影测量系统,激光跟踪仪等。

    机器人运动学模型标定:

    建立了kuka机器人的DH模型。设置不同的机械臂固有参数,由关节转角得到仿真末端位姿(模拟高精度测量实验数据)。由关节转角和末端位姿使用优化的方法(线性最小二乘,非线性最小二乘,扩展卡尔曼滤波法80)得到机械臂运动学模型参数。辨识到运动学模型参数的实际值后,通过修改机器人运动学模型参数的理论值可以直接计算出某关节构型对应的准确末端位姿。在实现机器人定位误差补偿时,需要根据辨识到的参数使用机器人逆运动学计算关节角度。机器人运动学模型标定的商业应用:商业化产品dynacal,caliware,motocal,rocal等标定软件。可以实现包括机器人本体标定,机器人温度补偿,工具校准,夹具对其等功能。

    机器人非模型标定:

    基于曲线拟合,空间网格,神经网络。对局部空间内位姿误差进行估计与补偿。84
    曲线拟合,需要使用优化的方法计算曲线中各个参数。
    多项式拟合步骤:选择多项式类型,决定函数大小,使用实验数据估计系数。生成改进的关节空间或者在标定空间的误差修正。

    空间网格:

    基于空间插值的定位误差标定是通过一定步长将机器人作业空间划分为一系列的立方体网格,然后测量各个网格节点处的位姿误差。对于工作空间中的任意目标点,可以用这个点周围的8个点通过加权平均的方式求出。基本步骤为:网格划分,误差测量,空间插值。

    神经网络:

    首先以关节旋转角及其对应的位姿误差分别作为输入输出来训练神经网络,利用训练好的神经网络计算机器人在不同关节构型处对应的末端定位误差,最终通过补偿机器人关节转角的方法来提高机器人绝对定位精度。或者以某一关节旋转角下的理想位姿及理想位姿和实际位姿的误差分别作为输入输出来训练神经网络。我认为最实用的是输入实际位姿,输出偏差,以便能根据实际要到的位置调整指令位置。
    基于神经网络的误差标定方法避免了复杂的建模过程,克服了参数辨识的不足。

    模型自标定:

    基于固定约束的模型自标定,不同于几何误差标定模型,操作流程可以实现自动化,可以实现在线标定。
    使用机器人视觉测量系统,从不同的位姿测量工作环境中某一个固定点,基于固定点约束建立几何误差自标定模型,辨识几何参数。

    手眼标定:

    Visp实现手眼标定的步骤:
    获取多组基座和末端执行器的位姿关系和对应的图片
    从图像计算目标相对于相机的位姿。
    由多对基-末和相-目标关系计算出相机相对于机械臂末端的位姿。

    后面会陆续给出这些模型的具体实现代码。

    展开全文
  • 库卡KRC4机器人

    2014-11-13 19:07:08
    库卡(KUKA)公司是世界工业机器人和自动控制系统领域的顶尖制造商 其产品广泛应用于汽车 冶金 食品和塑料成形等行业 其机器人重复定位精度0 015 0 2MM KR 180 PA<±0 06 MM KR 470 2 PA<±0 08 MM 平均故障...
  • UWB机器人定位 - 简介

    千次阅读 2020-08-11 20:29:33
    本文简要介绍UWB无线定位技术应用于自主移动机器人领域和人机协作领域的技术挑战和方案优势,通过对比现有主流移动机器人定位导航方案和现有主流UWB定位方案的优缺点,得出将UWB技术应用到自主移动机器人、大规模...

    摘要

    本文简要介绍UWB无线定位技术应用于自主移动机器人领域和人机协作领域的技术挑战和方案优势,通过对比现有主流移动机器人定位导航方案和现有主流UWB定位方案的优缺点,得出将UWB技术应用到自主移动机器人、大规模人员导航、以及人员机器人混合定位任务协作等领域所必须的UWB方案技术指标。

    背景简介

    智能移动机器人定位导航

    工业化进程不断加快,智能化的机器人取代人工进行简单和重复性的劳动也成为降低成本,增加效率,保证产品质量等重要途径,自主可移动机器人(AMR)作为众多机器人类别中的一类,赋予机器人自主移动的能力,极大地扩展了机器人的应用场合,如:

    1. 搬运物流机器人:用于智能仓储,智能工厂等,例如,用于亚马逊仓库的Kiva机器人,淘宝菜鸟仓库机器人等
    2. 扫地机器人:国外的如iRobot,Dayson等,国内的如科沃斯扫地机,小米扫地机等
    3. 引导机器人:用于园区,餐厅,展厅,会展厅,博物馆等行人导引服务
    4. 智能汽车:通过车身装载的多种传感器(如激光雷达,摄像头,GPS,UWB等)实现自主行驶,自动泊车,反向寻车,主动召唤等功能

    为使机器人具有自主移动的能力,其至少必须具备感知自身位置和规划行进路线的能力,这类似于我们通过GPS进行定位并通过Google地图等决定行驶路线。对于移动机器人来说,定位、路径
    规划、避障这3个功能模块相辅相成,共同促进机器人的自主性和智能性,而较好的定位能力是其他两个模块能高效运行的前提和基础。

    人机空间感知与任务协作

    另一方面,为更好地为访客提供服务或优化工业生产流程等,服务器及人或部分工业机器人对柔性化提出了更多要求,需要人和机器人具有相互感知和交互的能力,从而最终能够实现快速高效的任务协作。移动型服务机器人能够实时感知客户的位置为客户提供导引、行李搬运等服务,工厂搬运机器人实时感知员工位置信息能够实现精细化的订单配给追踪和货物分拣等能力。

    移动机器人主流定位技术

    目前主流商业方案中对移动机器人的定位导航主要有3个类别:

    1. 激光雷达(Lidar)定位导航方案

      采用激光雷达作为主要的数据感知源,通过其对周边环境实时测量所得的2D/3D环境点云数据,利用临近点云配准算法,全局点云注册算法等实现对机器人自身的位置计算和对运行环境的地图构建。激光雷达测距精度极高(~5mm),在强光直射以外的环境中运行稳定,同时点云本身也包含附近空间占用信息,可直接进一步用于机器人的路径规划和导航避障等。激光雷达方案依据对周围环境的检测、感知、建模方式不同,又主要分为2类:

      • 自然环境激光导航方案

        激光雷达直接对周围环境测量以获得点云信息,对相邻时刻的点云信息利用点云匹配算法来估计相对位移,并利用当前位置把该位置相对应的点云在全局环境点云中进行注册。

      • 反光柱激光导航方案

        在大型空旷的厂房或狭长简单的走廊等场合,由于缺乏足够的关于周边环境的几何特征信息,自然导航的激光雷达方案精度降低很多甚或可能失效,为解决这个问题,会人为的在运行环境中随机地布置一些涂有高反射性材料的反光板或反光柱,激光雷达在运行过程中不断地检测和追踪这些标识物体,并同时利用这些标识物体增量式地构建关于环境的稀疏特征地图。

    2. 视觉(Visual)定位导航方案

      采用摄像头作为主要的定位数据来源,通过获取关于周围环境的实时图像数据,利用计算机视觉技术,如特征点检测与匹配,光流追踪等,增量式地构建关于环境的视觉特征地图,并利用构建的稀疏地图信息进行实时定位,回环检测以消除累积误差,以及位置重定位等。视觉方案对比激光雷达方案成本较低,对环境的语义信息感知较为丰富,然而视觉方案对环境的光照信息和视觉纹理特征等要求很高,在弱光、强光、弱纹理等场景下无法工作,视觉传感器对安装位置或携带方式也有很大要求,不容易扩展到对人员的定位导航,此外,视觉方案所生成的稀疏环境地图也无法直接用于机器人的路径规划和导航避障等。激光雷达方案依据对周围环境的检测、感知、建模方式不同,又主要分为2类:

      • 自然环境视觉导航方案

        摄像头直接对周围环境成像以获得图像数据,并进而从中提取具有丰富自然环境特征的特征点,利用这些特征点重建环境的稀疏特征地图并通过追踪这些特征点来实现对机器人自身的的定位。

      • 二维码标签视觉导航方案

        在一些无纹理或弱纹理的场合,或视觉传感器受限于安装位置无法有效记录周围环境的情形(如仓库搬运AMR由于需要运载大型物品等,摄像头只能位于机器人底部,成像质量和图像纹理特征都较差),自然导航的视觉方案精度通常很差甚或无法工作,为解决这个问题,会人为的在运行环境中布置很多容易检测和识别的二维码标签,机器人通过在运行过程中不断地检测和追踪这些二维码标志,即可实现对自身的定位并同时增量式地构建环境的稀疏二维码标志地图。

    3. GPS定位导航方案

      作为室外场景最主要的定位方案,GPS接收机通过同时接收多个已知位置信息且时钟同步的卫星所发射的信号来计算位置坐标,GPS可支持对无限数量的设备同时进行精度为~10m的定位,利用多个接收机实现DGPS或RTK可进一步提升定位精度到1-10cm的范围。然而,由于无线信号本身的特性和环境所引入的噪声、干扰,GPS导航系统不适应用在室内或者水下机器人的导航中以及对于位置精度要求较高的场景。

    UWB无线定位系统

    当前的UWB定位系统依据定位原理的不同主要分为2大类:

    • TOF测距定位模式:标签设备通过TWR(双向测距)按照一定次序和临近基站分别进行测距,然后根据多边(multilateral)定位算法即可计算出自身的位置坐标;

    • TDOA距离差定位模式:利用标签到其周围两个基站的距离差,求解TDOA方程即可获得标签自身的位置坐标;

    TOF方案相较TDOA方案在用户容量密度、定位输出频率、系统扩展性等方面具有很大劣势,不太适合大规模场景下同时对大量的人员或移动机器人进行定位和导航,因而本文主要介绍TDOA方案原理和其技术特点。

    TDOA定位原理

    TDOA(到达时间差)是用于UWB无线定位的一种主要技术方式,相较于TOF(飞行时间测距)方式,由于基站和标签端交互信息的次数减少,一方面可降低系统的功耗,另一方面也可增大定位系统的用户并发数和容量密度。基于TWR(双向测距)模式的TOF方案由于需要每个标签和测距范围内的所有基站都进行消息交换,极大地限制了用户容量密度和对高频率进行定位能力,本文主要关注中大规模场景下对大量移动机器人或人员进行导航的需求,而使用TWR测距的方案很难满足,故不再讨论基于TWR测距方案。

    TDOA需要系统内的所有基站时间严格同步,依据同步方式的不同分为有线同步和无线同步两种,有线时间同步方案通过专用的有线时间同步器进行时钟分发,精度~0.1ns,但时钟网络的部署和维护代价以及成本较高,无线时间同步方案不需要特殊的同步设备,精度~0.3ns低于有线时间同步,不过其系统部署维护难度和成本都相对较低。由于无线时间同步方案从部署维护难度,系统扩展灵活性,和成本上都优于有线时间同步方案,因而本项目采用无线同步技术。

    在对用户进行定位和导航时,UWB定位系统根据标签和基站收发关系的不同有两种实现方式:

    1. 服务器端模式TDOA (也称为:上行TDOA,主动式TDOA等)

      服务器端模式TDOA

      在这种方案中,标签端周期性的广播定位信标(beacon)信号,基站记录标签beacon信号的接收时间戳并将该标签相关的信息发往中心定位引擎服务器,由于所有基站的时间都已同步,定位服务器即可根据beacon信号到达不同位置基站的时间差值来计算标签的位置信息。简单的说,标签端发送定位信标信号,在服务器处完成标签的位置计算,根据具体场景需求服务器可以将标签的位置信息通过网络(WIFI/Bluetooth/Zigbee/UWB/…)再发送回标签端。对大多数长度的消息来说,其发射时长<200us,故理论上在该区域最多可实现约5000次定位每秒,假若定位频率为1Hz,根据ALOHA理论,为达到尽可能小的信道冲突,只能支持约18%的标签同时工作,也就是有约5000*18% = 900个标签可以正常工作。

      该方案相较于基于客户端TDOA方案更适合人员监控和资产追踪等场景
      - 医院、养老院、护理院、隧道、矿井等需要进行人员监控和追踪的场所;
      - 工厂、企业等需要对资产、员工、访客、设备等进行追踪的场合;
      - 大型公共场所如商场、会展厅、博物馆等需要对人流密度进行监控和分析的情形;
      - …

    2. 客户端模式TDOA (也称为:下行TDOA,被动式TDOA等)

      客户端模式TDOA

      在这种方案中,基站端按照一定的次序在相应的时间槽上广播定位信标(beacon)信号,标签记录基站beacon信号的接收时间戳并从中提取出基站beacon信号的发送时间戳,由于所有基站的时间都已同步,标签本身即可利用不同基站的位置信息和不同基站beacon信号到达的时间差计算出标签自身的位置信息。简单的说,标签仅接受基站发送的定位信标信号,在本地处完成标签的位置计算,根据具体场景需求标签可以将自己位置信息从通信信道(UWB/5G/WIFI/Bluetooth/Zigbee/…)再发送到服务器端。由于标签不需要发射,只需要接收,标签容量密度可以做到无限,持续地监听和接收信号会导致标签功耗相对较大,不过标签端可通过利用网络的时间槽信息来实现在特定的时刻和按预设的频率来启动接收,从而优化功耗。

      该方案相较于基于服务器TDOA方案更适合对大量人员或机器人定位导航类场景:
      - 工厂、仓库、园区等地的AMR(自主移动机器人)主动导航;
      - 大型公共场所如商场、会展厅、博物馆、医院、停车场等地的人员导航和自动导引机器人;
      - 大规模机器群体(如无人机队,仓储物流搬运机器群等)编队、任务协作、智能调度优化等;
      - 中大规模场景下多人在线互动的VR应用与游戏等;

    服务器端模式TDOA和客户端模式TDOA比较:

    客户端模式TDOA 服务器端模式TDOA
    定位精确度
    定位稳定性
    ~10cm ~10cm
    输出频率 10-100Hz
    和网络时间槽协议参数有关,也和基站数量有关
    ~ 1000/并发用户数
    并发用户数越多,定位频率越低
    实时性
    标签自身定位延迟
    <5ms 50-500ms
    (WIFI回传)
    用户容量密度 无限制 ~ 1000/定位频率
    定位频率越低,并发用户量越大
    多传感器数据融合能力
    标签自身计算位置
    可方便融合其他传感器(编码器,IMU等)数据

    位置计算在服务器端完成
    所有传感器数据需发送到服务器进行融合
    设备功耗 标签功耗较高
    基站功耗较低
    标签功耗较低
    基站功耗较高
    用户隐私
    标签端无需发送信号,定位网络无法对网络内的标签设备进行监测

    标签端需要发送信号,网络可追踪定位网络内的所有标签设备

    UWB无线定位系统与移动机器人定位导航

    在室外场景下,GPS无线定位系统已经成为传统车载导航,以及各种自动驾驶技术的标准配置传感器。尽管对于室内应用场景,也存在多种无线定位技术(如WIFI、蓝牙、UWB等),然而所有这些室内无线定位技术很少见到用于智能机器人作为标配的定位传感器。目前用于室内场景的自主移动机器人(AMR),实现其对自身定位能力的主要传感器是激光雷达(Lidar)或摄像头,并利用机身携带的其他传感器(如轮式编码器、IMU等)进行辅助定位从而增加定位精度和定位稳定性。

    要作为移动机器人的主要定位传感器,定位系统需要满足至少以下几个性能指标:

    1. 较高的定位精度

      室内场景由于空间有限,且存在人员、物品等分布在整个环境中,为使机器人能够自主行驶,有效地规划行进路线,避开障碍物和行人等,其需要能够精确的估计自身在定位地图中的位置,较大的定位误差会使得机器人规划出较差的行进路线甚或是无法规划出行进路线,而较大的定位不稳定性会使得机器人执行器出现很大控制量变化,影响机器人行驶的稳定性。通常来说,在轮式编码器和IMU数据的辅助下,主定位传感器应提供<10cm的定位精度和定位稳定性。

    2. 较低的定位延迟

      机器人需要不停地获取自己的位置信息从而进行路径规划、导航、避障等,较大的或不稳定的定位输出延迟会导致机器人在行驶过程中晃动摇摆,甚至撞到障碍物等。对于大多数慢速搬运机器人来说,定位延迟需<10ms。

    3. 较高的定位输出频率

      由于机器人在当前时刻的位置坐标只能从最近一次定位位置差值外推而来,因而在输出频率很低时,当前时刻的位置估计会有很大的误差,这会使得机器人很难避开地图中的固定障碍物。尽管相邻定位时刻的位置信息可由轮式编码器和IMU等来估计和补偿,但轮式数据可能打滑,以及IMU对于较长时间的位置积分具有很大误差,因而主定位传感器通常需要能提供系统内的所有用户设备>5Hz的定位输出频率。

    4. 易融合多种传感器数据

      仅用单一的传感器很难保证移动机器人在复杂的室内条件下长期稳定地工作,GPS、UWB等无线定位传感器很容易受到遮挡、多径、非视距传播等影响从而导致定位失败,而摄像头方案容易受到环境光照、动态障碍物遮挡等影响从而无法工作,激光雷达在强光、简单的环境几何结构场景下也不能很好的工作,轮式里程计和IMU数据不太依赖外部的工作环境,然而作为一种使用航迹积分推算的定位传感器,具有很大的累积误差,单独使用无法提供长期精确的定位结果。通常移动机器人通过自身携带的多种类型传感器来进行数据融合从而提供机器人定位导航的能力,因而某传感器方案如果要作为机器人主要的定位数据源,其应该可以支持快速简单的融合其它辅助类型传感器的数据。

    5. 安装部署容易,对环境改动小

      在工厂、港口等场景中,AMR(自主移动机器人)正不断地取代AGV(自主导航机器人),主要原因便是AGV作为一种传统的方案,需要在其所工作地环境中铺设地面导航磁条,或埋设地底导引线等,主要问题是系统建设成本高,且当环境改变、机器人路径改变、或系统升级时需要很大的代价重新调整和适配。针对自主移动机器人,当前地主要发展方向是尽可能多地靠近自然环境导航方式,尽可能少地更改现有工作场地,以及支持快速地安装、部署、系统升级等。

    当前业界主流的无线定位方案很难同时满足以上几点需求:

    1. WIFI、蓝牙方案在使用RSSI定位算法时可满足较低的定位延迟,易结合多种传感器数据,以及可利用现有WIFI基站从而安装部署成本较低,然而最大的问题在于其所能提供的定位精度较差(~5-15m),无法满足移动机器人定位最重要和最基本的要求;

    2. RFID定位工作于TOF测距或TDOA模式下时可提供较好的定位精度,但其最大的问题是工作范围较小(<5m),从而导致需要安装大量定位基站,部署成本较高,导致后期维护和升级代价很大;

    3. UWB定位作为目前精度最高(~10cm)的定位方案,从定位精度上来说可基本满足移动机器人的定位需求,然而当前主流的UWB商业化技术方案(TOF模式或服务器端(上行)TDOA模式)却不太适合对工厂、园区等场景下的大量移动机器人定位导航,也不支持这些场景下的大量的人员实时导航和大规模的人机协作任务。具体来说:

      • TOF测距定位模式:该方案需要场景中的每个标签设备都和其周围的基站进行测距,因而很大地限制了系统的用户容量密度,不能提供实时高频地对大量人员和机器人进行混合定位的能力。此外,该方案要求精确的手动测量每个基站的位置坐标,增加了系统的安装和升级成本。

      • 服务器端(上行)TDOA定位模式:a). 该方案在Aloha工作模式下,可实现对所有标签设备总共~1000次每秒的定位能力,然而该方案随着区域内用户数量的增多,其单用户的定位频率反比下降,在有大量移动机器人和人员同时工作时,很难提供稳定地高频率位置输出。b). 此外,该模式下,标签设备并不能直接计算出自身的位置,位置在服务器完成计算并回传到标签处,因而这会引入很大的定位延迟(WIFI下30-500ms),而且实现多传感器数据深度融合也需要标签设备将其他传感器数据传送到服务器,对视觉图像、激光点云等需要较大宽带传输信道的数据这会引入很大的复杂度和成本。c). 和TOF方案一样,该方案要求精确的手动测量每个基站的位置坐标,使得系统的安装部署和升级成本较高。

    项目解决方案

    从上述分析可以看出,主要无线定位方案中能满足移动机器人最重要和最基本的精度指标的只有UWB定位方案,然而当前商业化的主要技术方案(TOF模式和服务器端TDOA模式)在定位延迟、系统用户容量密度、安装部署成本等方面存在很大的不足,限制了基于UWB的无线定位系统在移动机器人领域的大量应用。

    另一方面,相较于激光雷达、摄像头等方案,应用UWB无线定位系统具有以下优点:

    • 设备功耗较小,计算力需求低;
    • 工作环境内可实现全局绝对定位,不会出现激光、视觉方案中在大尺度环境运行中的累积误差;
    • 不受光照、和小尺寸障碍物遮挡等影响,定位系统覆盖范围内都可提供精确的定位结果;
    • 便于安装和携带,除了移动机器人外,可同时实现对人员的定位和导航,人员机器人共用同一套坐标系统,从而方便进一步支持人机交互任务和协作任务;

    项目原理

    本项目解决将UWB无线定位技术应用于大量自主移动机器人场景,以及大规模人员与机器人混合定位导航的场景,项目通过原创性的网络协议、时间同步算法、自动组网与位置计算标定算法等,解决了现有主流商业UWB定位方案具有的定位延迟大,高并发用户时定位输出频率低,不易结合多传感器数据,以及安装部署耗时较长,成本较高的问题。项目主要的技术特点包括:

    • 客户端模式(被动式)TDOA:支持无限容量的移动机器人和人员同时进行定位和导航,可高频率(10-100Hz)和低延迟(<5ms)地输出标签的位置坐标;

    • 抗多径干扰能力的无线时钟同步网络:通过原创性的协议算法,系统可自动识别出大部分多径传播到达的接收消息,并自动移除这些干扰消息从而很大地提升网络的无线时钟同步精度;

    • 快速安装部署,自动基站位置计算与标定:通过原创性的组网协议和后端网络算法,系统可实现自动计算校准各个基站的位置坐标,无需人工手动对基站位置进行测量,使得可以快速地安装部署该UWB定位系统;

    • 快速组网,所有基站处于同一定位网络,无需划分定位子小区:通过原创性的组网协议,系统实现了让所有基站处于同一定位网络,无需通过很多的定位子网络来实现覆盖整个工作场景。这会带来两个方面的好处:

      1). 无需提前划分子网络可极大地简化系统的设计和部署,后期添加或删除基站时无需考虑在子网络的分布或对现有子网络的影响,从而增加了系统的扩展性和伸缩性;

      2). 不进行子网络的划分可保证处在多个子网络交界的标签现在可利用所有来自不同子小区的基站的信息进行定位,提升定位精度和鲁棒性,同时也可避免处在子网络边缘的标签在切换定位子网络时带来的位置抖动,导致定位结果的不连续和不一致;

    该系统针对的可能应用场景主要包括:

    1. 仓储、物流机器人定位导航与人机任务协作

      工厂、仓库、园区等场景中,越来越多的自动搬运机器人、自动叉车等开始进入并逐渐取代低效昂贵的人工操作,使用UWB定位系统作为移动机器人定位导航的主要方式,有助于快速构建大规模、可伸缩、易扩展、高可靠的机器人群体系统,以及实现人员和智能机器人间的相互感知交互和高效任务协作。

    2. 智能停车场与无人驾驶汽车

      用户停车难、寻车难的问题在当前的大型停车场中日益凸显,另一方面,携带更多高级传感器的智能汽车也逐渐增加。智慧化的下一代停车场建设首先需要解决用户用户停车寻车的问题,而更进一步,智慧停车场也需要进行业务升级以便利用用户停车的这段闲置时间提供车辆维护相关的附加服务,如充电、检修、洗车、保养等。

      连接用户、智能汽车、以及智慧停车场的前提条件就是相互的位置感知:

      • 智能汽车获取其在停车场的定位信息可实现自动泊车
      • 用户获取自己在停车场的位置可实现对智能汽车的反向寻车
      • 更进一步,智能汽车通过获取自己的位置以及用户在停车场某出口的位置可实现对汽车的主动召唤
      • 在停车过程中,智能汽车还可利用停车场的地图信息自动行驶到汽车服务点进行汽车充电或维护服务;

    无线定位导航技术交流

    目前在做用于机器人和人机协作的UWB定位导航方案,开发过程中遇到各种困难,查阅了大量技术文档,论文资料,国内外相关论坛等,体会到没有一个专注于无线定位技术和应用的技术论坛、交流区、交流群可能使得很多项目的开发在初期就可能难以进行,因而希望构建这个交流群能够聚集从事无线定位技术的人员交流想法经验等。


    展开全文
  • 1 移动机器人定位导航性能评估规范 (征求意见稿) 团 体 标 准 T/AIIA 001-2020 2 目 次 前言...................................................................................................................

    下载链接:https://download.csdn.net/download/GGY1102/19909545

    1 移动机器人定位导航性能评估规范 (征求意见稿) 团 体 标 准 T/AIIA 001-2020 2 目 次 前言....................................................................................................................................................................... 3 1 范围................................................................................................................................................................... 4 2 规范性引用文件...............................................................................................................................................4 3 术语和定义.......................................................................................................................................................4 4 定位与导航性能测试.......................................................................................................................................8 5 避障能力.......................................................................................................................................................... 15 6 脱困性能.......................................................................................................................................................... 18 7 地图构建性能.................................................................................................................................................19 8 多移动机器人协同能力..................................................................................................................................23 9 其它特殊性能测试.........................................................................................................................................26 附录 A ................................................................................................................................................................ 28 2020-XX-XX 发布 深圳市人工智能产业协会 发 布 2020-XX-XX 实施 3 前 言 本标准按照GB/T 1.1-2009给出的规则起草。 本标准由深圳市人工智能产业协会(Shenzhen Artificial Intelligence Industry Association)标准化委员会提出并归口。 本标准起草单位:深圳市人工智能产业协会、深圳市大道智创科技有限公司、西安量子 智能科技有限公司、深圳市标准技术研究院、北京云迹科技有限公司、深圳市优必选科技股 份有限公司、深圳奥斯诺导航科技有限公司、西北工业大学、哈尔滨工业大学深圳研究生院、 深圳优地科技有限公司、广州艾可机器人有限公司、深圳市智绘科技有限公司、深圳市普渡 科技有限公司、深圳时空科技集团有限公司。 本标准主要起草人:李汉舟、朱晓蕊、邢志伟、龚汉越、范丛明,龙建睿、支涛、魏金 生、应甫臣、魏伟、李睿、吕刚、袁杰、杨峰、王小旭、刘晓平、赵磊、孙文化。 本标准为首次发布。 4 移动机器人定位导航性能评估规范 1 范围 本规范规定了地面最大移动速度不大于3m/s的移动服务机器人导航、定位、避障评价指 标体系和测试方法。 本标准适用的移动机器人包括讲解机器人、导购/导引机器人、物品递送机器人、移动 广告机器人、巡逻机器人、大型洗地/清扫机器人等能够在地面低速行驶的轮式、履带式或 足腿式机器人。其它类似机器人,可参考本规范对其导航定位性能进行评估。本规范不包括 在没有道路的情况下(山区、沙漠、树林、野地)使用的特种作业机器人,不包括家庭扫地、 吸尘、拖地等小型机器人,也不包括在公路上人车混杂环境应用的无人移动设备。 2 规范性引用文件 下列文件对于本文件的应用是必不可少的。凡是注日期的引用文件,仅所注日期的版本 适用于本文件。凡是不注日期的引用文件,其最新版本(包括所有的修改单)适用于本文件。 GB/T 12643—2013 机器人与机器人装备 词汇 GB/T 38124-2019 服务机器人性能测试方法 ISO 18646-1-2016 机器人 服务机器人性能规范机器人试验方法 第1部分:轮式机器 人运动(Robotics-Performance criteria and related test methods for service robots – Part 1: Locomotion for wheeled robots) 3 术语和定义 3.1 机器人本体和操作 3.1.1 移动平台 能使移动机器人实现运动的全部组装件,包含用于支持负载的结构和移动机械机构。 3.1.2 正常工作状态 机器人制造商规定的,在符合使用环境下能正常运行的状态。 3.1.3 自动导航模式 机器人控制系统按照轨迹规划任务程序自主行走的一种工作方式。 5 3.1.4 手动模式 通过按钮、操作杆以及除自动操作外,对机器人进行操作的控制方式。 3.1.5 待机状态 机器人处于正常上电,但不做任何操作的状态。 3.1.6 开机时间 主电源打开以后,机器人各系统完成上电启动和自检工作,进入待机状态的时间。 3.1.7 待机功耗 机器人在待机状态下,单位时间内所消耗的电量。 3.1.8 工作能耗 机器人在工作状态下,单位时间内所消耗的电量。 3.2 传感器 3.2.1 激光雷达 通过主动发射并接收反射回来的激光,实时测量目标的位置、速度、距离,形成点云图 像,可用于环境感知的传感器。 3.2.2 主动结构光视觉 将结构化(点结构、线结构、面结构或光学编码)的光线投射到物体表面,获取视觉图 像后,通过计算图像中结构光的变形(或飞行时间等)来确定被测物体的三维尺寸和位置信 息,可用于环境感知的传感器。 3.2.3 里程计 用于测量行驶距离的传感器。 3.2.4 惯性导航 6 采用陀螺和加速度计,测量载体的角速度和加速度,并通过导航解算得到载体运动的速 度、姿态和位置信息,是一种不依赖于任何外部信息的导航技术。 3.2.5 主传感器 在多传感器融合系统中,发挥最主要作用的传感器。 3.2.6 主传感器作用距离 机器人导航系统中,主传感器的最大探测距离。 3.3 机器人导航、定位及避障 3.3.1 轨迹规划 设定机器人运动的时间位置序列信息。 3.3.2 位姿 表达机器人空间位置和姿态的六维向量,包含三个位置和三个姿态角信息。对于在平面 场地工作的机器人,位姿可以简化为二维平面坐标和机器人航向角的组合,形成一个三维向 量。 3.3.3 定位 在环境地图上识别或分辨出移动机器人的位姿。 3.3.4 导航 根据指令或设定程序,控制机器人从起始定位点通过特定路径达到目标定位点。 3.3.5 避障 机器人在行进过程中,中断原有轨迹规划,主动躲避障碍物,完成躲避后,继续按照原 轨迹规划运动。 3.3.6 重定位 当前位姿丢失以后,重新获取新的位姿的过程。 7 3.3.7 半围观 机器人周边大部分区域被人群或障碍物占据,只剩下唯一的通道能够行走。 3.3.8 脱困 机器人行进轨迹被复杂障碍物阻挡,不能进行有效避障和行走,在恢复通道或具有通道 后,重新获得正常移动能力的过程。 3.3.9 协同避让 多个移动机器人相遇时,自动调整位姿,彼此躲避。 3.3.10 最小通过宽度 机器人能够自主通过的最窄通道的宽度。 3.3.11 续航能力 机器人充满电后,连续行驶的最大距离或工作的最长时间。 3.4 机器人建图 3.4.1 环境地图 由一定分辨率的环境感知传感器和相关算法建立的环境数学模型,用于表达环境特征。 3.4.2 建图 建立环境地图的过程。 3.4.3 增量建图 在已有环境地图基础上,进一步增加或修改部分内容,形成新的环境地图。 3.4.4 修正建图 8 在已有环境地图基础上,对原有环境地图中区域视觉特征变化剧烈的部分,进行修改补 充的建图方法。 3.4.5 扩展建图 针对某些应用环境不能一次完成建图,或不适合一次构建完整地图的场景,分次逐步添 加新区域地图至原有环境地图的建图方法。 3.4.6 地图共享 一个机器人的建图结果可以被其它机器人使用。 3.4.7 回环检测 判断机器人是否回到出发点,利用闭环约束消除机器人行走累计定位误差的方法。 4 定位与导航性能测试 4.1 定位与导航性能测试设备及通用测试环境布置 4.1.1 测试设备 机器人定位和导航过程中,测试设备应具备对机器人姿态和路径追踪功能,并能实时完 成位置、角度、运行轨迹、移动速度、旋转速度等参数的记录和计算。在室外测试时,可以 采用双天线 GPS/Bd 定位定向系统,高精度惯性导航系统,视觉追踪系统、激光追踪仪等, 本规范对测试设备类型不做强制规定,但所用测试设备应带有计量鉴定部门出具的计量鉴定 合格证,并在有效期内。 测试设备要求如下: ——位置分辨率≤3cm; ——位置精度≤5cm; ——角度分辨率≤3°; ——角度精度≤5°; ——数据采集频率≥30Hz。 4.1.2 通用测试环境 测试环境温湿度为机器人标称使用的典型环境温湿度。对于主要应用于室内的机器人, 优先选择在室内测试;对于主要应用于室外的机器人,优先选择在室外测试。当测试场地不 能达到测试目标和精度时,可以灵活选择室内或室外测试。室外测试应选择无雨雪、大风等 恶劣天气。要求测试区域应开阔,在测试路径上以及测试路径附近不能有非设定障碍物。 若测试区域设置有隔离墙,则需满足机器人在设定测试路径上任何一个位置时,隔离墙 与机器人中心的距离不小于 1.5L(L 为机器人沿运动方向的长度)或不小于 1.5m,二者取较小 值。隔离墙高度应当高于机器人高度,并且不能被越过。 9 场地面积则需根据机器人大小和转弯半径确定。可以选择室内或室外篮球场作为测试场 地,面积为 200-1000m2。有些试验如果无法找到合适场地或不方便在空旷场地进行,也可 以根据试验环境具体要求选择其它场地。 4.1.3 通用测试路径 测试路径包括: ——直线形路径:在测试区域设定起点 A 和目标点 B,AB 距离至少 5L(L 为机器人沿 运动方向的长度),机器人行走方向要求如图 1 所示。 B A >5L A 图 1 ——L 形路径:在测试区域设定起点 A 和目标点 B,机器人行走方向要求如图 2 所示,L 为机器人沿运动方向的长度。 a b A >5L B >5L 图 2 ——U 形路径:在测试区域设定位置点 A、B、C、D,机器人行走方向要求如图 3 所示, L 为机器人沿运动方向的长度。 B A B 10 A B >5L >5L 图 3 ——回形路径:在测试区域设定位置点 A、B、C、D,机器人行走方向要求如图所示 4, 机器人按 A-B-C-D-A 路径行走,此路径起点和目标点均为 A,L 为机器人沿运动方向的长度。 D B A >5L >5L C B A 图 4 4.1.4 通用测试速度约定 本规范中,凡没有明确约定机器人行进速度的测试项目,机器人行进速度均为厂家标称 的额定速度 V 额定。 4.1.5 其它通用测试设备 B D A C C D 11 有质量鉴定合格标签的秒表或计时器,精度 1s。 4.2 定位性能 4.2.1 测试目的 本指标为了评估机器人在自主导航模式下,沿不同测试路径到达指定目标的能力,包括 到达目标点的位姿准确度与重复性。 4.2.2 测试环境与设备 使用 4.1.1 测试设备, 4.1.2 测试环境,4.1.3 测试路径。 4.2.3 测试方法 选择 4.1.3 中每一种测试路径类型,设定机器人起始点和目标点,在自主导航模式下使 机器人从起始点到达目标点,记录机器人到达目标点时的实际位姿 , , ,记设定的目标 点位姿为 0 ,0 ,0 ,每种路径重复测试 N (N=6~10)次。记平均位姿信息为: = 1 =1 , = 1 =1 , = 1 =1 。 位置准确度: = − 0 2 + − 0 2 (4-1) 姿态准确度: = − 0 (4-2) 位置重复性: = + 3 (4-3) 其中: = 1 =1 (4-4) = − 2 + − 2 (4-5) = 1 −1 =1 ( − ) 2 (4-6) 姿态重复性: = 3, = 1 −1 =1 ( − ) 2 (4-7) 4.2.4 测试结果 测试完成后,填写测试结果,被测机器人最终评测结果为所测试所有路径条件下的平均 值,如表 1 所示: 表 1 定位性能测试结果 序号 路线类型 位置准确度 (m) 姿态准确度 (°) 位置重复性 (m) 姿态重复性 (°) 备注 1 12 2 3 4 均值 4.3 重定位性能 4.3.1 测试目的 本指标为了评估机器人在开机启动后,确定自己位姿的能力和速度,以及在某些场景环 境中丢失自己位姿信息后,重新确定位姿的能力,包括重定位成功率、速度、准确度和重复 性。 4.3.2 测试环境与设备 使用 4.1.1 测试设备,4.1.2 测试环境,4.1.3 中 L 形或 U 形测试路径。 4.3.3 测试方法 选择 L 形或 U 形测试路径,在机器人航向角转过 90°以后的路径上选择一个测试点。 机器人进入自主导航模式,并运行到该测试点后,命令机器人停止运动,记录此时测试 设备上输出的机器人位姿 0 ,0 ,0 。然后遮挡其主传感器,使其位姿信息丢失 10s 以上, 撤除遮挡物,记录从撤除遮挡物开始,在 30s 内是否能够重定位成功及重定位时间。若重定 位成功,机器人导航定位系统输出的重定位位姿为 , , ,每个测试点重复 N(N=6~10)次, 测试点不少于 3 个(起点、终点、一个中间点)。 重定位过程允许机器人在原地作小幅度的运动,小幅度运动中机器人中心与测试点偏离 距离不得超过 0.5L(L 为机器人沿运动方向的长度),否则按重定位失败处理。对机器人原 地运动航向角大小不作限制。若机器人是经过小幅度运动后重定位成功,则重定位成功后, 记录此时测试设备上输出的机器人位姿 0 ,0 ,0 ,机器人导航定位系统输出的重定位位姿 为 , , 。 定义如下指标: ——成功率(쳌):30s 内成功重定位的概率 ——重定位时间(쳌):成功重定位的情况下,重定位消耗的平均时间 ——重定位位置准确度():根据公式(4-1)计算 ——重定位姿态准确度():根据公式(4-2)计算 ——重定位位置重复性():根据公式(4-3)计算 ——重定位姿态重复性():根据公式(4-7)计算 ——开机重定位:在 4.3.3 中,选择一个起始点,将机器人放置在该点处之后再开机, 重复 N(6-10)次,使机器人在全局地图中进行重定位。其它同上。 4.3.4 测试结果 测试完成后,填写重定位指标测试结果,见表 2: 13 表 2 重定位指标测试结果 序 号 重定位测 试项目 重定位成 功率쳌 重定位时 间쳌(s) 位置准确度 (m) 姿态准确度 (°) 位置重复性 (m) 姿态重复性 (°) 备注 1 特定路径 2 开机 4.4 导航性能 4.4.1 测试目的 测试机器人在工作环境下的路径规划能力和运动轨迹控制能力。 4.4.2 测试环境与设备 使用 4.1.1 测试设备,4.1.2 测试环境,4.1.3 中直线形测试路径或本节定义的”S”形 特殊路径。 4.4.3 测试方法 4.4.3.1 导航路程误差 在 4.1.3 测试环境中,选择直线形测试路径,指定起点 A 和目标点 B,使机器人在自主 导航模式下从 A 到达 B,测试设备记录机器人的行走路程 Li,记 L0 为 A-B 最短路程,路程 差为 Li - L0,重复 N(6-10)次,计算得到均方根误差: = 1 =1 ( − 0) 2 (4-8) 及单位路程均方根误差: = 0 (4-9) 4.4.3.2 导航时间误差 测试过程同 4.4.3.1,记录数据为行走时间 Ti,T0 为机器人以额定速度走完 A-B 最短 路径所需要的时间,时间差为 Ti - T0,重复 N(6-10)次,计算得到均方根误差: = 1 =1 ( − 0) 2 (4-10) 及单位时间均方根误差: = 0 (4-11) 4.4.3.3 单位轨迹均方根误差(选做项目) 对于有设定路径功能的机器人,此项测试机器人导航的控制能力。在图 5 中,由两个半 径为 R(R≥5L)的半圆拼成”S”形测试路径,令机器人在该设定路径 L0 上行走,测试设 备记录机器人实际行走轨迹为 Li,重复 N(N=3)次。对 L0 和 Li 等距采样获取同等数量的 K(K ≥10)个位置采样点: 14 0 = (0 1 ,0 1),(0 2 ,0 2),...(0 ,0 ) = ( 1 , 1),( 2 , 2),...( , ) 轨迹均方根误差: ⺁ = 1 =1 ⺁, (4-12) ⺁, = 1 =1 − 0 2 + − 0 2 (4-13) 单位轨迹均方根误差: ⺁ = ⺁ 0 ,(L0为指定轨迹长度) (4-14) A B 5 5 2R 2R R 图 5: S 形路径 4.4.3.4 行走平滑度(选做项目) 定义:上一时刻位姿与下一时刻位姿之差大于 3°为一次巨大位姿调整;上一时刻速度 与下一时刻速度之差大于机器人额定速度的 15%,记为一次巨大速度调整。时刻间隔定义为 0.5s。 选择 4.4.3.3 测试路径,记路径长度为 L。设定被测机器人行驶速度为额定速度,控制 被测机器人以自主导航模式从”S”形路径起点行进到终点,记录行进过程中机器人巨大位 姿调整和巨大速度调整的总次数 n。 行走平滑度: = (4-14) R R 15 4.4.4 测试结果 测试完成后,填写测试结果,见表 3: 表 3 导航性能指标测试结果 导航路程误差 (m/m) 导航时间误差 (s/m) 单位轨迹均方根误差 ⺁(m/m) 行走平滑度 (次/m) 备注 5 避障能力 5.1 测试目的 本测试是在机器人正常工作条件下, 测试其在不同工作环境中对静态和动态障碍物识 别和避让的能力。 5.2 测试环境与设备 本节试验环境为4.1.2定义的通用测试环境。试验设备为不同形状和材质的障碍物,典 型障碍物规格见表4。相同形状,但材质不同的障碍物视为不同障碍物。本规范涉及的障碍 物形状有5种、材质有5 种,定义的障碍物共有10 种。 表 4 典型障碍物 名称 几何形状 描述 墙面 平板,材质范围包括:1、镜面;2、 玻璃;3、木材;4、铝合金;5、厚 度大于 1mm 的帘布。 高 H:1500mm 宽 W:1000mm 桌子 带有四条支柱的桌子,材质为木材。 高 H:700mm~800mm 宽 W:500mm~800mm 长 L:300mm~600mm 桌子腿宽度:小于 50mm×50mm 16 空中圆盘 空中圆盘,材质为木材。 高 H:600mm 高 H’:20mm 直径Φ:500mm 直径Φ’:100mm 低矮圆盘 低矮扁形圆柱体,材质为木材。 高 H:80mm 直径Φ:300mm 大圆柱 大圆柱体,模拟人的躯干,材质为 木材。 高 H:600mm 直径Φ:200mm 小圆柱 小圆柱体,模拟人的手臂或腿等, 材质为木材。 高 H:400mm 直径Φ:70mm 5.3 测试方法 5.3.1 静态障碍物避让测试 5.3.1.1 机器人最小通过宽度测试 如图6所示,机器人进入自主导航模式,设定导航路径通过障碍物SO1和SO2,逐步减小 SO1和SO2间距。若测试机器人能顺利往返P1和P2点,且不触碰到障碍物连续30次,则将此距 离定义为机器人的最小通过宽度Wpass。SO1和SO2是5-2节描述的5种墙体障碍物中的一种, 且为同一种障碍物。 图 6 最小通道宽度试验图 17 5.3.1.2 静态避障能力及效率测试 a) 测试方法: 根据场地大小确定一次试验能够容纳的障碍物 SOn(n≤10)数量(SOn 为 5.2 节 描述的 10 种障碍物中的一种),每一种障碍物在本试验中只出现一次。障碍物布局如 图 7 所示。障碍物选择的数量和材质越多,表明机器人避障适应性越强。5-2 图中粗实 线部分代表真实墙体或 5.2 节描述的墙体障碍物,最窄墙体通道宽度为机器人最小通过 宽度 Wpass 的 1.1 倍。P1 和 P2 点是起始点或目标点。且 P1 和 P2 点的连线经过每对障 碍物连线的中心。每两对相邻障碍物 SOn 和 SOn+1 间的距离大于机器人沿运动方向长度 L 的 5 倍。令机器人从 P1 点自主行进到 P2 点。若机器人成功抵达,且未碰触到障碍物, 记为成功避障 1 次。 如果测试场地足够大,可以一次摆放 5.2 节描述的 10 种障碍物。记录 N(N=6~10) 次试验过程中,机器人成功避障的次数和材质数量,以及每次从起点到终点的行驶时间 ti。 如果受场地大小限制,一次不能摆放多个障碍物时,可分组试验。每一组障碍物测 试 N(N=6~10)次。累计待测机器人在每一组试验中成功避障的次数和材质数量,以及 每次从起点到终点的行驶时间 ti。 试验中,如果机器人不能正确避让某一种障碍物,导致后续测试无法继续进行,则 可更换障碍物(更换的障碍物必须从 5.2 节描述的 10 种障碍物中选择)或取消该障碍 物重新试验。被更换或取消的障碍物不参与累计计数。 图 7 机器人静态避障能力试验图 b) 结果计算: 假设试验分为 k 组进行(如果一次能够摆放 10 个障碍物,则不用分组,即 k=1), 每组试验 N(N=6~10)次,每组试验障碍物数量为 n(n≤10)。成功避让的障碍物总数 量为 s,成功避让的障碍物种类总数为 p,成功避让的障碍物材质种类为 m。定义静态 避障能力 SOA(p,m), 静态避障速度效率为 Eas(p,m), 计算方法如下: SOA p,m = / (k × N × n) × 100% (5-1) (p,m) = 12 =1 × /v额定 × 100% (5-2) 其中:Lp1p2 为 p1 和 p2 之间距离; V 额定是机器人额定速度; ti 是机器人第 i 次从起点到终点的行驶时间。 5.3.2 动态障碍物避让能力和效率 5.3.2.1 测试方法: 18 如图 8 所示,在一个宽度范围是 4-6 倍 Wpass 的狭长通道内,设置两组移动障碍物 SO1 和 SO2,设定机器人的行进轨迹为在 P1 和 P2 两点之间往返行驶。记录机器人在行 进过程中没有碰触到两组移动障碍物的次数。在连续 N(N=3)次成功测试后, 视为测 试成功。SO1 和 SO2 是放置在可以移动的平台上的大圆柱障碍物(5.2 节定义),或者 是来回走动的试验人员。障碍物 SO1 按图 5-3 所示的左右走向往复运动,障碍物 SO2 按上下走向往复运动。测试场景参数约定: 1) 狭长通道宽度: 4-6 倍 Wpass,Wpass 为机器人最小通过宽度; 2) 障碍物 SO1 和 SO2 移动速度设定为:机器人额定速度的 80%; 3) 障碍物移动距离:Ld = 3Wpass; 4) 障碍物 SO1 和 SO2 距离:≥5L,(机器人沿运动方向长度 L 的 5 倍); 5) P1 和 P2 点距离:Lp1p2≥12L,(机器人沿运动方向长度 L 的 5 倍)。 图 8 机器人动态避障能力试验图 5.3.2.2 结果计算: 如机器人未到达目标位置 P2 或在运动过程中碰到障碍物, 则视为测试失败。在连 续 N(N=3)次成功测试后, 视为测试成功。定义机器人避让动态障碍物的运行速度为 Vbd ,实测机器人从 P1 到 P2 点的时间为 ti,则:动态避障速度可记为: t = 1 i=1 12 (5-3) 对于 N 次试验,平均动态避障速度效率可记为: Ed= t/V 额定 ×100% (5-4) 其中:V 额定是机器人额定速度。 6 脱困性能 6.1 测试目的 考察机器人在复杂场景或受限空间中的自主逃离困境的能力。 6.2 测试环境与设备 在 4.1.2 通用测试环境中,用 5.2 节中木质墙面构成凹形障碍物(或用试验人员组成凹 形障碍物),将机器人半包围,如图 6-1 所示。要求凹形障碍物内部空间足够大,可以保证 机器人完成掉头动作。凹形障碍物口处宽度尺寸为 W(Wpass≤W≤Wpass+20cm,Wpass 为机 器人最小通过宽度)。机器人以 P1 为出发点,且机器人的朝向(正常前进方向)为背向出 口, P2 为目的地,P1 和目标点 P2 之间距离 Lp1p2≥5L(L 为机器人沿运动方向的长度)。 19 6.3 测试方法 测试方法如下: a)如图 9 所示,将机器人按规定方向置于 P1 点; b)进入自动导航模式,设置行进路线为凹形障碍物正前方 P2 处; c)记录机器人成功从 P1 点抵达 P2 的时间和次数。如果 30s 内无法行走到目标点,则 记录为失败一次。 d)如果脱困成功,记录第 i 次测试中机器人到达目标点所需的时间 ti。 e)重复试验 N (N≥20) 次。 图 9 机器人脱困能力试验示意图 6.4 脱困能力计算 试验共进行 N (N≥20) 次,成功脱困次数记为 n,定义脱困概率 Pb, 脱困速度效率为 Et,计算方法如下: 脱困概率 Pb Pb=n/N×100% (6-1) 脱困平均速度效率 Et: Et = 12 1 =1 /v额定 × 100% (6-2) 7 地图构建性能 7.1 建图精度测试 7.1.1 测试目的 机器人在自主导航之前,一般需要建立环境地图,环境地图的分辨率和准确性,直接影 响机器人导航和避障性能。本节内容就是为了评价机器人建图后获得的环境地图精度。 7.1.2 测试环境与设备 在 4.1.2 节定义的通用测试环境中,均匀布设 k(k=10~15)个标志杆。标志杆上应包 含足够明显的特征,能够被主传感器准确识别。在测试场地最大长度和最大宽度方向应至少 20 布设各一对标志杆。所有标志杆之间相对平面直线距离已知(或通过皮尺或其它方法提前测 量得到)。设各标志杆之间实际间距为 0,⺁(,⺁ = 1,2…)。 7.1.3 测试方法 测试步骤如下: a) 使用机器人系统对测试场景进行建图,行走路线不固定,但应经过所有标志杆,确 保在图中能够找到所有标志杆的相对坐标。如图 10 所示; 图 10:一种可能的机器人构建地图行走路线 建图完毕后,在所建地图中分别找到标志杆所对应地图坐标点。在同一幅地图中分别计 算所有标志杆两两之间距离,记为 ,⺁(,⺁ = 1,2…),如图 7-2 所示,图中白色星为环境地 图中标志杆位置,彩色星为测试场景中标志杆的实际位置; 图 11:环境地图和真实场景中标志杆距离关系 b) 重复步骤 a)和 b) N (N=3~6)次; 7.1.4 计算方法 按照公式表 5 分别计算每次建立的环境地图中,每一个标志杆和其它 k-1 个标志杆之间 的直线距离 的误差 ,⺁: ,⺁ = ,⺁ − 0,⺁ = 1,2… 表 5:标志杆之间距离误差统计表(单位:m,假设 k=10) 序号 1 2 3 … 9 10 1 0 1,2 1,3 1,9 1,10 03 3 02 2 1 01 21 2 2,1 0 3 3,1 0 … 0 10 10,1 0 , 0 以每一个标志杆与其它标志杆距离的最大绝对值误差 , 为该标志杆距离误差(表 7-1 按列取绝对值的最大值)。 定义一次建图误差为:在一次建立环境地图操作中,每一个标志杆距离误差的均值: = 1 =1 , (7-1) 定义建图精度 为 N 次建图误差的均值: = 1 =1 (7-2) 7.2 单位面积建图时间 7.2.1 测试目的 测试使用视觉传感器(如相机、激光雷达等设备)进行定位或辅助定位的移动机器人系 统构建环境地图的速度。 7.2.2 测试环境与设备 在 4.1.2 定义的测试环境中,均匀分布机器人主传感器可以识别的 N 个典型障碍物(表 5-1 定义)或类似障碍物,障碍物密度为每 20m2 一个。 采用秒表或计时器计时(也可通过机器人系统服务器日志中的时间戳来确定时间)。 7.2.3 测试方法 测试步骤如下: a) 机器人系统在测试环境中进行建图,建图过程中需经过测试环境中设置的 N 个障碍 物,在输出的环境地图应包含对应的障碍物; b) 记录建图过程中数据采集时间 (从机器人开始行走到最终停止的过程所消耗的 时间)、数据传输时间 (如果采用服务器进行建图,则统计从机器人采集某帧数 据到服务器获取该帧数据所消耗的时间;如果采用本地建图则此项时间为零)、数 据处理及数据存储的时间 (从机器人运动停止到完成场景地图本地生成,以及 人工编辑地图所消耗的时间);则总建图时间为:쳌= + + 。 c) 在同一环境条件下重复建图 N(N=3~6)次; 7.2.4 计算方法 在该测试环境下,N 次试验的平均建图时间 쳌 : 쳌 = 1 =1 쳌 (7-3) 22 定义单位面积建图时间 (单位:s/m²): = 쳌 / (7-4) 其中:S 为测量场地面积。 7.3 增量建图能力 7.3.1 测试目的 测试使用视觉传感器(如相机、激光雷达等设备)进行定位或辅助定位的移动机器人系 统是否具备增量构建地图的能力(可以是栅格地图、特征点地图、稠密像素点地图)。增量 构建地图能力包含对原有地图区域视觉特征变化进行修正的能力(即修正建图)和添加新区 域至原有地图的能力(即扩展建图)。 7.3.2 测试环境与设备 在 4.1.2 定义的测试环境中,用表 5-1 定义的木质墙体作为隔板划分成不同区域,每个 区域内部具有若干个典型障碍物(表 5-1 定义的典型障碍物)或类似障碍物,障碍物密度为 每 20m2 一个。区域划分所使用隔板及典型障碍物可以随时拆卸。 以上场地也可以采用室内(外)环境和其它障碍物搭建。 7.3.3 测试方法 7.3.3.1 修正建图 测试步骤如下: a) 机器人系统在测试环境中进行建图,建图过程中需经过设置的若干个障碍物,在输 出的环境地图应包含对应的障碍物,如图 12 所示; 图 12:机器人对测试场景进行建图 b) 建图完毕后随机选择测试区域内一半原有典型障碍物,将其移至与区域内随机其它 位置,并保证新位置与初始位置距离 1m 以上。或添加(减少)10%的典型障碍物。 c) 重新操作机器人系统,设置其初始地图为第一步输出的环境地图,在新的测试环境 中进行修正建图操作,如图 13 所示; 23 图 13 修正建图 d) 修正建图完毕后,观察初始地图与更新之后地图的变化情况,应能如实删除被移除 的障碍物,并将其重新构建到新的位置。或者增加(删减)相应障碍物。 7.3.3.2 扩展建图 测试步骤如下: a) 机器人系统在测试环境中进行建图,建图过程中需经过测试环境中设置的若干个障 碍物,在输出的环境地图应包含对应的障碍物,如图 14 所示; 图 14 机器人对测试场景中部分场景进行建图 b) 建图完毕后移除周围测试区域隔板; c) 重新操作机器人系统,设置其初始地图为第一步输出的环境地图,在新的测试环境 中进行建图操作,建图路线应包含移除隔板之后的新增区域,如图 15 所示; 图 15 扩展建图 d) 建图完毕后,观察初始地图与更新之后地图的变化情况,应能将地图扩展到新增区 域,并正确将新增障碍物构建到地图当中。 7.3.4 评估方法 增量建图能力只考核被测机器人是否具有该项功能,不考核精度和效率。 8 多移动机器人协同能力 8.1 机器人协同避让能力 24 8.1.1 测试目的 考察多个机器人在狭小空间相遇后互相避让并成功到达目标位置的能力。 8.1.2 测试环境与设备 在 4.1.2 通用测试环境中,用 5.2 节中木质墙面构成狭长通道,通道宽度为 2.5 倍 Wpass (Wpass 为机器人最小通过宽度)。在通道中间 P1 点和 P2 点放置两台机器人,两点间距离 为 Lp1p2=5L(L 为机器人沿运动方向的长度),如图 8-1 所示。本试验中的墙面也可以利用真 实墙面。机器人 R1 以 P1 为起始出发点,P2 为目的地,且朝向(正常前进方向)P2。机器 人 R2 以 P2 为起始出发点,P1 为目的地,且朝向(正常前进方向)P1。用秒表或计时器记 录机器人运行时间。 8.1.3 测试方法 测试步骤如下: a) 如图 16 所示,机器人 R1 位于 P1 点,机器人 R2 位于 P2 点; b) 进入自动导航模式,设置机器人 R1 行动至目标点位 P2,机器人 R2 行动至目标点位 P1 处,同时出发; c) 设单个机器人在无障碍物的情况下以额定速度到达目标点位的时间为 T, 若两机 器人在 6T 时间内均抵达目标点,且中途无碰撞现象发生,则试验成功,否则失败。 d) 若协同避让成功,记录第 i 次测试中最后一个机器人到达目标点所需的时间 ti, 并记录成功避让总次数为 n, e) 重复试验 N 次(N≥6)。 图 16 协同避让试验 8.1.4 协同避障能力和效率 设试验的总次数为 N, 机器人成功协同避障次数为 n。记录每次试验中,最晚到达目标 点机器人所用时间 ti,定义: 协同避障能力 Pca: Pca=n/N×100% (8-1) 协同避让速度效率 Eca: Eca= 12 1 =1 /v额定 × 100% (8-2) 25 其中:Lp1p2 为 p1 和 p2 之间距离; V 额定是机器人额定速度; ti 是机器人第 i 次协同避让所用时间。 8.2 机器人协同交通能力 8.2.1 测试目的 在路径比较狭窄,只允许一台机器人通过时,考察机器人之间是否能够协同工作,自主 解决简单交通问题。 8.2.2 测试环境与设备 在 4.1.2 通用测试环境中,用 5.2 节中木质墙面构成狭长通道,通道宽度为 2.5 倍 Wpass (Wpass 为机器人最小通过宽度)。在通道中部设置间距为 W(Wpass≤W≤1.8Wpass)的两个 障碍物 SO1 和 SO2。在通道中间 P1 点和 P2 点放置两台机器人,两点间距离为 Lp1p2=5L(L 为机器人沿运动方向的长度),如果 8-2 所示。本试验中的墙面也可以利用真实墙面。机器 人 R1 以 P1 为起始出发点,P2 为目的地,且朝向(正常前进方向)P2。机器人 R2 以 P2 为 起始出发点,P1 为目的地,且朝向(正常前进方向)P1。用秒表或计时器记录机器人运行 时间。 8.2.3 测试方法 测试步骤如下: a) 如图 17 所示,机器人 R1 位于 P1 点,机器人 R2 位于 P2 点; b) 设置机器人进入自动导航模式,且 R1 的目标点为 P2,R2 的目标点位为 P1; c) 两机器人同时出发,相向而行,基本同时达到障碍物附近; d) 设单个机器人在无障碍物的情况下以额定速度到达目标点位的时间为 T,若两机器 人在 6T 时间内均顺利抵达终点,途中无碰撞现象,则试验成功,否则失败; e) 记录协同交通成功次数 n。以及最后一个机器人到达目标点所用时间 ti; f) 重复试验 N(N≥6)次。 图 17 机器人协同交通试验 8.2.4 协同交通能力和效率 设试验的总次数为 N, 机器人成功协同交通次数为 n。记录每次试验中,最晚到达目标 点机器人所用时间 ti,定义: 26 协同交通能力 Pct: Pct=n/N×100% (8-3) 协同交通速度效率 Ect: Eca= 12 1 =1 /v额定 × 100% (8-4) 其中:Lp1p2 为 p1 和 p2 之间距离; V 额定是机器人额定速度; ti 是机器人第 i 次协同避让所用时间。 9 其它特殊性能测试 9.1 室外环境光线对导航性能的影响程度测试 9.1.1 测试目的 针对室外移动机器人,检验室外光线变化对机器人导航性能的影响。 9.1.2 测试场地与设备 使用 4.1.1 测试设备,室外光照充足测试环境,4.1.3 中 L 形或 U 形测试路径。 9.1.3 测试方法 选择晴天有阳光的天气,分别在早晨 8:00-10:00 之间和傍晚 17:00-19:00 之间(或者 阳光照射地面角度为[10°,40°]时和[140°,170°]之间),按 4.3 要求,测试机器人重定 位性能指标。包括成功率쳌,重定位时间쳌,位置准确度,姿态准确度,位置重 复性,姿态重复性,比较在两种不同光照环境下对机器人重定位性能的影响。 以角标 1 表示早晨测试结果,以角标 2 表示傍晚测试结果,定义指标如下: 成功率比: = 쳌1 쳌2 (9-1) 重定位时间比: = 쳌1 쳌2 (9-2) 位置准确度比: = 1 2 (9-3) 姿态准确度比: = 1 2 (9-4) 位置重复性比: = 1 2 (9-5) 姿态重复性比: = 1 2 (9-6) 9.1.4 测试结果判定 27 如果阳光照射角度对机器人导航性能影响不大,那么以上 6 个比率指标约等于 1。否则 说明阳光照射角度对机器人导航性能有影响。影响越严重,比值会越大。测试完成后,填写 两种环境下重定位测量指标值及比例,如表 6 所示: 表 6 不同光照环境下重定位性能测试对比结果 序号 环 境 类 型 光 照 角 度(°) 成 功 率 쳌 重 定 位 时 间 쳌(s) 位 置 准 确 度 (mm) 姿 态 准 确 度 (°) 位 置 重 复 性 (mm) 姿 态 重 复 性 (°) 备注 1 早晨 2 傍晚 比值 9.2 动态行人避障测试 9.2.1 测试目的 检验在人流较大的环境中机器人导航性能是否会受到影响。 9.2.2 测试环境与设备 使用 4.1.2 通用测试环境,邀请 10-20 名测试人员充当移动障碍物。 9.2.3 测试方法 根据场地面积大小,确定行人密度ρ≥0.05 人/m2。机器人建立好环境地图以后,进入 自动导航模式,安排 N(N=10~20)人在自主导航行进的机器人周围 30m 内随意走动。并安排 2-4 人在机器人周围半径 2m 范围内随意走动。充当移动障碍物的测试人员不能主动碰撞机 器人,不能由后台操作机器人。测试时间为 30min,记录机器人与行人碰撞的次数 n。 9.2.4 测试结果计算 定义行人碰撞率指标如下: t = (9-7) 9.3 防跌落测试(选择试验项目) 重要说明: a)本试验具有一定危险性,如果机器人在使用场景中有可能遇到类似的情况,可以考 虑采用此测试项目。如果在使用场景中不存在此类情况,可以不做本项测试。另外,此项测 试要求机器人必须具有相应的传感器和软件算法支持,如果没有软硬件支持,不能进行此项 试验。 b)本试验有可能损坏机器人产品,试验时必须做好防护工作! 9.3.1 测试目的 28 检验机器人能否探测到易跌落区域并有效避开,防止移动机器人在有凹陷的地面运行时 跌落。 9.3.2 测试环境与设备 选择一个有下降楼梯或台阶的长方形平台环境(面积在 100-200m2,根据机器人大小可 以适当放大和缩小测试场地的面积)。楼梯或台阶宽度 W≥10L(L 为机器人沿运动方向的长 度)。 9.3.3 测试方法 机器人建立好环境地图以后,不得设定虚拟禁区,令机器人进入自动导航模式,随机设 定机器人的导航移动目标,目标点位置至少有 5 次在楼梯或台阶下边,让机器人运行 30min。 本试验有一定危险性,测试时设立警戒线,阻止无关人员靠近可能的跌落区域。并且应 用绳索或挡板做好防护,避免机器人跌落或跌落后损坏设备或砸伤人员。 9.3.4 测试结果 记录 30min 内机器人跌落次数 n。 29 附 录 A (资料性附录) 机器人定位导航性能参数汇总表 表 A.1 机器人定位导航性能参数汇总表 机器人定位导航性能参数汇总表 _________________________________

    展开全文
  • 基于SLAM的机器人的自主定位导航

    万次阅读 多人点赞 2017-11-15 10:55:54
    正如图中所示,机器人自主定位导航技术中包括:定位和地图创建(SLAM)与路径规划和运动控制两个部分,而SLAM本身只是完成机器人定位和地图创建,二者有所区别。 首先明确一下自主导航的两大解决方案: 1.传统...

    背景介绍: 机器人的自主定位导航

    这里写图片描述

    正如图中所示,机器人自主定位导航技术中包括:定位和地图创建(SLAM)路径规划和运动控制两个部分,而SLAM本身只是完成机器人的定位和地图创建,二者有所区别。

    首先明确一下自主导航的两大解决方案:

    1.传统方案(稍微成熟一点):SLAM+路径规划+运动控制;

    2.深度学习(还不完善):
    这一两年,深度学习成为人工智能的代名词。在这个行业,前几年还是以比较传统的概率学,或者控制论的方式进行机器人自主定位导航。但这里展现的是完全通过深度学习,直接通过摄像头数据作为信号输入,再通过神经网络直接产生出机器人的控制信号。其中像 SLAM 的过程、路径规划的过程,完全通过学习的方式就可以进行实现。

    SLAM

    SLAM是同步定位与地图构建(Simultaneous Localization And Mapping)的缩写,最早由Hugh Durrant-Whyte 和 John J.Leonard提出。

    其实,SLAM更像是一个概念而不是一个算法,它本身包含许多步骤,其中的每一个步骤均可以使用不同的算法实现。主要用于解决移动机器人在未知环境中运行时即时定位与地图构建的问题。

    当你身处异地,怎么准确找到想去的地方?在户外迷路时,怎么找到回家的路?没错,我们有导航软件和户外地图。

    1.选择地图

    和人类绘制地图一样,机器人描述环境、认识环境的过程主要就是依靠地图。它利用环境地图来描述其当前环境信息,并随着使用的算法与传感器差异采用不同的地图描述形式。

    机器人学中地图的表示方法有四种:栅格地图、特征地图、直接表征法以及拓扑地图

    (1).栅格地图

    机器人对环境地图的描述的方式最常见的为栅格地图(Grid map)或者称为Occupancy Map。栅格地图就是把环境划分成一系列栅格,其中每一栅格给定一个可能值,表示该栅格被占据的概率。
    这里写图片描述
    这种地图看起来和人们所认知的地图没什么区别,它最早由NASA的Alberto Elfes在1989年提出,在火星探测车上就用到过,其本质是一张位图图片,但其中每个“像素”则表示了实际环境中存在障碍物的概率分布。

    一般来说,采用激光雷达、深度摄像头、超声波传感器等可以直接测量距离数据的传感器进行SLAM时,可以使用该地图。这种地图也可以通过距离测量传感器、超声波(早期)、激光雷达(现在)绘制出来。

    (2).特征点地图

    特征点地图,是用有关的几何特征(如点、直线、面)表示环境,常见于vSLAM(视觉SLAM)技术中。
    这里写图片描述
    相比栅格地图,这种地图看起来就不那么直观了。它一般通过如GPS、UWB以及摄像头配合稀疏方式的vSLAM算法产生,优点是相对数据存储量和运算量比较小,多见于最早的SLAM算法中。

    (3).直接表征法

    直接表征法中,省去了特征或栅格表示这一中间环节,直接用传感器读取的数据来构造机器人的位姿空间。

    这里写图片描述

    上图就是直接记录了屋子内天花板画面的图像地图。这种方法就像卫星地图一样,直接将传感器原始数据通过简单处理拼接形成地图,相对来说更加直观。

    (4).拓扑地图

    拓扑地图,是一种相对更加抽象的地图形式,它把室内环境表示为带结点和相关连接线的拓扑结构图,其中结点表示环境中的重要位置点(拐角、门、电梯、楼梯等),边表示结点间的连接关系,如走廊等。这种方法只记录所在环境拓扑链接关系,这类地图一般是由前几类地图通过相关算法提取得到。

    比如扫地机器人要进行房间清扫的时候,就会建立这样的拓扑地图:
    这里写图片描述

    (5).小结

    在机器人技术中,SLAM的地图构建通常指的是建立与环境几何一致的地图。

    一般算法中建立的拓扑地图只反映了环境中的各点连接关系,并不能构建几何一致的地图,因此,这些拓扑算法不能被用于SLAM。

    直接表征法类似卫星地图,它是直接使用传感器(一般是图像传感器)构建得到。这种方法的信息冗余度最大,对于数据存储是很大的挑战,同时,机器人要从中提取出有用的数据也要耗费一番周折,因此在实际应用中很少使用。

    特征点地图又是另一个极端,虽然数据量少,但是它往往不能反应所在环境的一些必须的信息,比如环境中障碍物的位置。vSLAM技术中,多采用这种地图来解决机器人定位问题。想让机器人进行自主避障和路径规划,还需要额外配置距离传感器,如激光雷达、超声波来完成。

    栅格地图,或者Occupancy Map(占据地图)恰好介于其中,一方面它能表示空间环境中的很多特征,机器人可以用它来进行路径规划,另一方面,它又不直接记录传感器的原始数据,相对实现了空间和时间消耗的最优。因此,栅格地图是目前机器人所广泛应用的地图存储方式。

    这里写图片描述

    2.定位及传感器选择

    当你打开手机中的导航软件,在选择前往目的地的最佳路线之前,首先要做的动作是什么呢?没错,就是定位。我们要先知道自己在地图中的位置,才可以进行后续的路径规划。

    在机器人实时定位问题中,由于通过机器人运动估计得到的机器人位置信息通常具有较大的误差,我们还需要使用测距单元得到的周围环境信息更正机器人的位置。

    关于定位方案的选择,具体看这里:干货|服务机器人常用的定位导航技术及优缺点分析

    目前,常见的测距单元包括激光测距、超声波测距以及图像测距三种。其中,凭借激光良好的指向性和高度聚焦性,激光雷达已经成为移动机器人的核心传感器,同时它也是目前最可靠、最稳定的定位技术。

    自1988年被提出以来,SLAM的理论研究发展十分迅速。在实际应用时,除配备激光雷达外,还需要机器人具有IMU(惯性测量单元)、里程计来为激光雷达提供辅助数据,这一过程的运算消耗是巨大的,传统上需要PC级别的处理器,这也成为限制SLAM广泛应用的瓶颈之一。

    3.传感器数据预处理

    这是一个完整的SLAM和导航系统的主要架构图:

    这里写图片描述

    其中,SLAM核心过程包括3个步骤,第一步称为预处理。我们知道,激光雷达和其他雷达设备一样,某一个时刻只能获取它所在位置的环境信息。

    这就是我们所说的点云,它只能反映机器人所在环境中的一个部分。第一步预处理就是对激光雷达原始数据进行优化,剔除一些有问题的数据,或者进行滤波。

    这里写图片描述

    4.匹配

    第二步是匹配,也就是说把当前这一个局部环境的点云数据在已经建立地图上寻找到对应的位置,这个步骤非常关键。

    这里写图片描述

    这个是ICP的点云匹配算法,用于实现匹配。说这个过程关键,就是因为它的好坏,直接影响了SLAM构建地图的精度。这个过程和我们玩拼图游戏有点类似,就是在已经拼好的画面中找到相似之处,确定新的一个拼图该放在哪里。

    在SLAM过程中,需要将激光雷达当前采集的点云(红色部分)匹配拼接到原有地图中。

    这里写图片描述

    如果不进行匹配过程,所构建的地图可能就乱成一团,变成这样。

    这里写图片描述

    5.地图融合

    在这个部分完毕以后,就进行第三步,地图融合,也就是将这一轮来自激光雷达的新数据拼接到原始地图当中,最终完成地图的更新。

    就像这个图一样,这个过程是永远伴随SLAM过程的。

    这里写图片描述

    数据融合和简单的贴图是有很大的差异的。因为实际上传感器描绘的世界存在一定的误差,或者正巧在这个时间环境有了变化,例如机器人旁边闯入了一只小猫。

    因此,实际要进行的过程会更加复杂,需要用很多概率算法,并采用滤波的方式进行融合。将上述这个过程逐次执行,就最终产生了我们看到的栅格地图。

    这里写图片描述

    6.Loop Closure(回环)问题

    这个过程听起来其实并不复杂,但是要处理好有很大难度。这里举几个例子,比如叫做Loop Closure(回环)问题。如果匹配算法不足够优秀,或者环境中存在很不巧的干扰,当机器人绕着环境一圈后,就会发现原本是应该闭合的一个环形走廊断开了。

    比如正常地图应该这样:

    这里写图片描述

    如果处理不好,实际地图就成这样:

    这里写图片描述

    对于环境比较大的场景,回环问题是不得不面对的,但现实总是不完美的,即使是激光雷达这种高精度传感器,也难免存在误差。而回环问题的难点恰恰在于在一开始出现少许误差的时候,并不会被发觉,直到机器人绕着环路一圈,随着误差的累加,发现环路已经无法闭合时,此时已经酿成大错,一般很难回天。

    当然这个问题并不是无解,一个好的商用化SLAM系统,回环问题是否能很好的解决,就成为评判这个系统实力的指标了。

    这是前两天在『思岚科技』办公室进行的测试,左边的视频是基于开源的ROS机器人操作系统进行的地图构建,右边的是基于SLAMWARE构建的地图。

    『视频暂缺』

    当机器人已经绕场一周后,ROS构建的地图出现了中断,而SLAMWARE构建的地图是一个完美的闭环,它与我们办公室的设计图完美重合。

    这里写图片描述

    除了算法层面的回环问题,SLAM实际应用中还有很多这种坑,比如走廊问题外界干扰问题

    以外界干扰问题来说,通常,激光雷达作为机器人的眼睛,一般是安装在底盘上的,它能看到的视野很有限。当受到外界干扰(人类或者宠物等等)后,机器人很容易丢失定位精度,无法正常完成后续的建图工作。

    当机器人安装SLAMWARE后,机器人受到干扰,可以完全不受影响,照样能够正常工作。

    『视频暂缺』

    目前,SLAM的开源实现代表多为学术界,实际应用有很多Corner Case要处理,需要传感器、系统参数、其他辅助设备的联合调优。

    一般来说,上述的SLAM过程对于运算消耗是巨大的,虽然并没有达到像训练神经网络动用服务器集群那种地步,但传统上需要PC级别的处理器。

    除配备激光雷达外,还需要机器人具有IMU(惯性测量单元)、里程计来为激光雷达提供辅助数据,否则SLAM系统也难以得到运行。总的来说,SLAM算法本身是一个对于外部系统有着多种依赖的算法,这是一个切实的工程问题。

    7.算法优化及商用

    很多机器人,比如扫地机是不可能装一个PC进去的,为了让SLAM能在这类设备里运行,除了解决激光雷达成本外,还要对SLAM算法做出很好的优化。

    了解,不是本文主题:

    这也是我们思岚科技SLAMTEC主要的努力方向,一方面,我们这7年多很好的解决了各类实际SLAM算法难点,另一方面,我们把SLAM这个复杂的系统做了很大的优化,可以放到一个硬币那么大的模块内部,降低尺寸功耗。此外,它还集成了IMU等配套传感器,力求做到对于SLAM的使用便捷性。

    2.路径规划

    那么,机器人利用SLAM技术得到了有效的空间信息后,它是怎样实现路径规划的?SLAM和路径规划之间关系是怎样的?

    这里写图片描述

    实际上,SLAM算法本身只是完成了机器人的定位和地图构建两件事情,与我们说的导航定位并不是完全等价的。这里的导航,其实是SLAM算法做不了的。它在业内叫做运动规划(Motion Planning)

    运动规划是一个很大的概念,从机械臂的运动、到飞行器的飞行,再到这里我们说的扫地机的清扫路径规划,都是运动规划的范畴

    我们先谈谈针对扫地机这类轮式机器人的运动规划。这里所需的基础能力就是路径规划,也就是一般在完成SLAM后,要进行一个叫做目标点导航的能力。通俗的说,就是规划一条从A点到B点的路径出来,然后让机器人移动过去。

    这里写图片描述

    1.全局规划

    要实现这个过程,运动规划要实现至少两个层次的模块,一个叫做全局规划,这个和我们车载导航仪有一点像,它需要在地图上预先规划一条线路,也要有当前机器人的位置。这是由我们的SLAM系统提供出来的。行业内一般会用叫做A*的算法来实现这个过程,它是一种启发式的搜索算法,非常优秀。它最多的应用,是在游戏中,比如像星际争霸、魔兽争霸之类的即时战略游戏,都是使用这个算法来计算单位的运动轨迹的。

    2.局部规划

    当然,仅仅规划了路径还是不够的,现实中会有很多突发情况,比如正巧有个小孩子挡道了,就需要调整原先的路径。当然,有时候这种调整并不需要重新计算一遍全局路径,机器人可能稍微绕一个弯就可以。此时,我们就需要另一个层次的规划模块,叫做局部规划。它可能并不知道机器人最终要去哪,但是对于机器人怎么绕开眼前的障碍物特别在行。

    3.已知地图(A*)与未知地图(D*)算法

    这两个层次的规划模块协同工作,机器人就可以很好的实现从A点到B点的行动了,不过实际工作环境下,上述配置还不够。比如A*算法规划的路径是根据已知地图,预先规划好的,一旦机器人前往目的地的过程中遇到了新的障碍物,就只好完全停下来,等待障碍物离开或者重新规划路径了。如果扫地机器人买回家,必须先把屋子都走一遍以后才肯扫地,那用户体验就会很差。

    为此,也会有针对这类算法的改进,比如SLAMWARE内我们采用改良的D*算法进行路径规划,这也是美国火星探测器采用的核心寻路算法。这是一种动态启发式路径搜索算法,它让机器人在陌生环境中行动自如,在瞬息万变的环境中游刃有余。

    D*算法的最大优点是不需要预先探明地图,机器人可以和人一样,即使在未知环境中,也可以展开行动,随着机器人不断探索,路径也会时刻调整。

    4.空间覆盖(space coverage)

    以上是目前大部分移动机器人都需要的路径规划算法,而扫地机器人作为最早出现在消费市场的服务机器人之一,它需要的路径规划算法更为复杂。

    一般来说,扫地机需要这么几个规划能力:贴边打扫、折返的工字形清扫以及没电时候自主充电。单单依靠前面介绍的D*这类算法,无法满足这些基础需要。

    扫地机器人还需要有额外的规划算法,比如针对折返的工字形清扫,有很多问题要处理。扫地机如何最有效进行清扫而不重复清扫?如何让扫地机和人一样,理解房间、门、走廊这种概念?

    针对这些问题,学术界长久以来有一个专门的研究课题,叫做空间覆盖(space coverage),同时也提出了非常多的算法和理论。其中,比较有名的是Morse Decompositions,扫地机通过它实现对空间进行划分,随后进行清扫。

    这里写图片描述

    20世纪70年代,卡内基梅陇大学(CMU)完全依靠超声波做到了现在我们扫地机的行为,当然造价也十分昂贵。

    这里写图片描述

    前面介绍的从A点到B点移动路径规划也是实现这类更高级路径规划的基础。实际上,要从SLAM实现到扫地机器人所需要的这些功能,还是有非常多的工作要做的。

    了解,不是主题

    针对扫地机器人,我们将其特有的路径规划功能预先内置在SLAMWARE中,方便厂家进行整合,不需要进行二次开发。

    参考:http://www.arduino.cn/thread-46394-1-1.html
    http://www.arduino.cn/thread-46541-1-1.html
    http://www.arduino.cn/thread-46992-1-1.html
    http://www.arduino.cn/thread-45526-1-1.html

    扩展阅读:机器人自主导航四大方案

    自主定位导航技术的现状和未来应用趋势

    展开全文
  • 光伏行业的核心产品是“太阳能电池片”,依托这个产品生产线有非常多的视觉检测及定位需求。光伏组件接线盒自动焊接机(焊接一体机)是太阳能电池片的一个附属件,任何一块太阳能板子出厂前都需要把“接线盒”焊接上...
  • 机器人视觉引导定位介绍

    千次阅读 2020-04-22 14:58:45
    机器视觉都有怎样的应用? 机器视觉的应用主要分为四大类别,包括引导、识别、测量和检验...机器视觉应用前的准备工作 从本质上讲,机器视觉系统就是在工业环境中引导机器人、测量物品、统计物品、读取条码、字母和...
  • 背景介绍: 机器人的自主定位导航 正如图中所示,机器人自主定位导航技术中包括:定位和地图创建(SLAM)与路径规划和运动控制两个部分,而SLAM本身只是完成机器人定位和地图创建,二者有所区别。 首先明确...
  • 机器人抓取中物体3D定位算法介绍

    千次阅读 2019-07-23 23:26:53
    针对纹理丰富的物体,可以使用SIFT等特征点与模板图像匹配进行定位;对于弱纹理或无纹理物体,可以使用稳定的梯度或者深度图法向进行匹配,进而恢复位姿;一些基于parts进行投票的方法也取得了很好的效果;然而,...
  • 工业机器人

    2021-01-18 08:44:56
    在保持六轴机器人的通用性情况下其结构紧凑,重复定位精度高,响应快。该ZN-ZN605六轴工业机器人可高效完成上下料、分拣、装配、打磨以及其他加工应用的工作任务。 二、产品特点 1、运转速度快。大范围动作,一个...
  • 定位与地图构建1 了解机器人定位和地图构建的基本概念1.1定位基本逻辑1.2定位需要哪些信息2了解定位和建图的常用方法2.1网格定位2.1.1空间的离散化2.1.2概率理论2.1.3贝叶斯理论2.1.4用网格化解释实例2.1.5网格定位...
  • 本实验主要测试客户端模式(被动式、下行模式)方案的UWB定位系统其定位性能,包括TDOA到达时间差稳定性、定位精度等。
  • 机器人

    2020-11-12 14:06:58
    机器人(Robot,自动执行工作的机器装置)是一种能够半自主或全自主工作的智能机器。历史上最早的机器人见于隋炀帝命工匠按照柳抃形象所营造的木偶机器人,施有机关,有坐、起、拜、伏等能力。 机器人具有感知、...
  • 当受到外界干扰(人类或者宠物等等)后,机器人很容易丢失定位精度,无法正常完成后续的建图工作。 当机器人安装SLAMWARE后,机器人受到干扰,可以完全不受影响,照样能够正常工作。 『视频暂缺』 目前,SLAM的开源...
  • 安川机器人手册常用机器人技术参数,包括了安川机器人的一些常见的机械手的各种技术参数,如承重、定位精度、重复定位精度、尺寸、运动空间、功率、等技术参数。
  • 而且居然是07年的文章了,这十年,看国内的发展好像并不是十分大作者:陈卫东,张 飞摘要:自主移动机器人在未知环境下作业时,首先要解决的基本问题就是其自身的定位问题,而定位问题与环境地图的创建又是相辅相成...
  • 服务机器人想要自由行走,实现自主定位导航是关键,自主定位导航包括定位、建图与路径规划。SLAM作为机器人定位导航的核心技术,正不断获得行业内的重视,但SLAM只是完成定位与地图创建这两件事,它并不完全等同于...
  • 机器人性能测试系统

    2021-04-01 13:12:34
    随着科学技术的飞速发展,我国提出了振兴制造业的“中国制造2025”计划。重点的发展方向是智能化和提高资源利用率。各类机器人的应用是制造业智能化的重要体现,随着政策的...工业机器人自身重复精度、定位精度高,需
  • 建立了一个主动机器视觉定位系统,用于工业机器人对零件工位的精确定位。采用基于区域的匹配和形状特征识别相结合的图像处理方法,该方法经过阈值和形状判据,识别出物体特征。经实验验证,该方法能够快速准确地得到物体...
  • 机器人本体标定

    千次阅读 2019-09-06 16:21:56
    一般而言,机器人重复定位精度较高,能达到±0.05 mm 左右。其标定方法一般包括四个步骤:①运动学建模;②数据测量;③参数辨识;④误差补偿。 数据测量 目前用于机器人连杆姿态测量的方式主要有两种类型,一种是借助...
  • 3.1 与UR机器人的通讯介绍 3.2.1、Cognex 如何使用外部触发相机执行一连串动作 3.2.2 Cognex 如何为不同的触发条件执行不同的子程序 3.2.3 Cognex 如何测量UR机器人重复定位精度
  • 室内定位传感器方案汇总 目录 室内定位传感器方案汇总 1、定位方案概述 1.1、内定位系统有最基本的5种算法: 1.2、常用的室内定位技术主要包括以下几种: 1.3、定位理论 1.4、不同的定位方案对比 2、各种...
  • 机器人主要参数

    2020-02-18 21:09:28
    重复定位精度、可动范围、手部负载,这些术语究竟代表些什么?本篇将要介绍的是机器人的主要参数,看完后相信你会对机器人参数不再陌生。 手部负载条件 使用机器人时应保证机器人的负载条件在手部允许负载线图所示...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,616
精华内容 1,046
关键字:

机器人重复定位精度