精华内容
下载资源
问答
  • CVPR2020无人驾驶论文摘要 无人 导读/ Starsky是一种比较独特的方案。它是在高速上自动驾驶,第一公里最后一公里采用远程驾驶的模式,Starsky的卡车可以由人类远程操作。没有使用较为昂贵的激光雷达,而是选择了...

    CVPR2020无人驾驶论文摘要

    无人

    导读/ Starsky是一种比较独特的方案。它是在高速上自动驾驶,第一公里最后一公里采用远程驾驶的模式,Starsky的卡车可以由人类远程操作。没有使用较为昂贵的激光雷达,而是选择了摄像头+毫米波雷达的传感器配置。

    在这里插入图片描述

    国际计算机视觉与模式识别会议(CVPR)是IEEE一年一度的学术性会议,在世界范围内具有顶级的权威性与影响力,同时也是圈内学者关注和交流的重要场所。

    素有计算机视觉领域“奥斯卡”之称的CVPR有着相当严苛的录用标准。据统计,会议往年的平均录取率不超过30%,而根据CVPR2020官方公布论文收录结果,本届CPVR共接收6656篇论文,中选1470篇,“中标率”只有22%,堪称十年来最难入选的一届。

    然而,在论文接收率下降的同时,中国科技企业被录取论文数量却不降反增,百度作为AI代表企业今年中选22篇,比去年的17篇增加了5篇。在自动驾驶领域,与安全息息相关的车辆识别全新数据合成方法研究便位列其中。

    近年来,CVPR蓬勃发展的重要原因,很大一部分是源自于中国科技公司的贡献。本次会议中,百度入选的22篇论文,全面涵盖视觉领域下的自动驾驶中的车辆检测、人脸检测&识别、视频理解&分析、图像超分辨及场景实例级分割等众多热门子领域,也向国际领域展示了中国视觉技术水平的深厚积累。

    除了多篇论文被收录,百度还将在本届CVPR中联合悉尼科技大学、南开大学等单位共同主办弱监督学习研讨会(The 2nd Workshop onLearning from Imperfect Data),以及与中科院等单位共同主办活体检测研讨会(The 4th Workshop on MediaForensics),与更多顶尖学者进行深入交流。

    如下为百度入选CVPR 2020的部分论文展示:

    1.车辆识别

    3D Part Guided Image
    Editing for Fine-grained Object Understanding

    在这里插入图片描述

    在自动驾驶场景中,准确地感知“特殊”状态的车辆对行驶安全至关重要(例如:车门打开可能有乘客下车,尾灯闪烁意味着即将变道)。针对此难题,本文提出了一个全新的数据合成(增强)方法,即通过对齐的部件级三维模型对二维图像中的车辆进行编辑,自动生成大量“特殊”状态(例如:开启的车门、后备箱、引擎盖,闪烁的前照灯、尾灯)的车辆图像与语义标注结果。针对生成的训练数据,本文设计了一个双路骨干网络使得模型可以泛化到真实的测试数据,与传统的模型渲染方法相比,本方法平衡了域差异的问题并且更加轻量便捷。

    为了验证方法的有效性,本文构建了CUS (Cars in Uncommon States) 数据集,标注了约1400张真实街景下车辆处于特殊状态的图像。实验结果表明:本文提出的方法可以有效地对“特殊”状态的车辆进行检测、整车的实例级分割、部件的语义分割以及状态描述,对自动驾驶的安全决策有着重要的意义。

    2.目标检测&跟踪

    Associate-3Ddet:Perceptual-to-Conceptual association for 3D Point Cloud
    Object Detection

    目标检测技术是机器人和自动驾驶领域中最重要的模式识别任务之一。本文提出了一种领域自适应的方法来增强稀疏点云特征的鲁棒性。更具体地说,是将来自真实场景的特征(感知域特征)和从包含丰富细节信息的完整虚拟点云特征(概念域特征)进行了关联。这种域适应特征关联的方法实际上是模拟在人脑进行物体感知时的联想关联功能。这种三维目标检测算法在训练过程中增强了特征提取能力,在推理阶段不需要引入任何额外的组件,使得该框架易于集成到各种三维目标检测算法中。

    Neural Message Passingand Attentive Spatiotemporal Transformer for Point
    Cloud Based 3D Video Object Detection

    在这里插入图片描述

    基于单帧点云的3D目标检测器通常无法应对目标遮挡、远距离和非均匀采样等情况,而点云视频(由多个点云帧组成)通常包含丰富的时空信息,可以改善上述情况下的检测效果,因此本文提出一个端到端的在线3D点云视频目标检测器。论文中的Pillar Message Passing
    Network(PMPNet),可将点云俯视图下的非空栅格编码为图节点,并在节点间进行信息传递以动态改善节点感受野,PMPNet可以有效结合图空间的非欧特性和CNN的欧式特性;在时空特征聚合模块中,还提出空间和时间注意力机制来强化原始的Conv-GRU层,空间注意力机制对new memory进行前景增强和背景抑制,时间注意力机制用以对齐相邻帧中的动态前景目标。该3D点云视频目标检测器在nuScenes大型基准集上达到了领先效果。

    A Unified Object Motionand Association Model for Efficient Online
    Multi-object Tracking

    在这里插入图片描述

    利用单目标跟踪器(SOT)作为运动预测模型执行在线多目标跟踪(MOT)是当前的流行方法,但是这类方法通常需要额外设计一个复杂的相似度估计模型来解决相似目标干扰和密集遮挡等问题。本文利用多任务学习策略,将运动预测和相似度估计到一个模型中。值得注意的是,该模型还设计了一个三元组网络,可同时进行SOT训练、目标ID分类和排序,网络输出的具有判别力的特征使得模型可以更准确地定位、识别目标和进行多目标数据关联;此外,论文中提出了一个任务专属注意力模块用于强调特征的不同上下文区域,进一步强化特征以适用于SOT和相似度估计任务。该方法最终得到一个低存储(30M)和高效率(5FPS)的在线MOT模型,并在MOT2016和MOT2017标准测试集上取得了领先效果。

    3.人脸检测&识别

    在这里插入图片描述

    HAMBox: Delving into Online High-quality Anchors for Detecting Outer Faces

    近期,关于人脸检测器利用锚点构建一个结合分类和坐标框回归的多任务学习问题,有效的锚点设计和锚点匹配策略使得人脸检测器能够在大姿态和尺度变化下精准定位人脸。本次论文中,百度提出了一种在线高质量锚点挖掘策略HAMBox,它可以使得异常人脸(outer faces)被补偿高质量的锚点。HAMBox方法可以成为一种基于锚点的单步骤人脸检测器的通用优化方案。该方案在WIDER
    FACE、FDDB、AFW和PASCAL Face多个数据集上的实验表明了其优越性,同时在2019年WIDER Face and Pedestrian Challenge上,以mAP
    57.13%获得冠军,享誉国际。

    FaceScape: a Large-scale High Quality 3D Face Dataset and Detailed
    Riggable 3D Face Prediction

    在这里插入图片描述

    该论文发布大尺度高精度人脸三维模型数据库FaceScape,并首次提出从单幅图像预测高精度、可操控人脸三维模型的方法。FaceScape数据库包含约18000个高精度三维面部模型,每个模型包含基底模型和4K分辨率的置换图及纹理贴图,能够表征出面部极细微的三维结构和纹理。与现有公开的三维人脸数据库相比,FaceScape在模型数量和质量上均处于世界最高水准。

    在FaceScape数据库的基础之上,本文还探索了一项具有挑战性的新课题:以单幅人脸图像为输入,预测高精度、表情可操控的三维人脸模型。该方法的预测结果能够通过表情操控生成精细的面部模型序列,所生成的模型在新表情下仍然包含逼真的细节三维结构。据悉,FaceScape数据库和代码将于近期免费发布,供非商业用途的学术研究使用。

    Hierarchical Pyramid Diverse Attention Network for Face Recognition

    在这里插入图片描述

    目前主流的人脸识别方法很少考虑不同层的多尺度局部特征。为此,本文提出了一个分层的金字塔多样化注意力模型。当面部全局外观发生巨大变化时,局部区域将起重要作用。最近的一些工作应用注意力模块来自动定位局部区域。如果不考虑多样性,所学的注意力通常会在一些相似的局部块周围产生冗余的响应,而忽略了其他潜在的有判别力的局部块。此外,由于姿态或表情变化,局部块可能以不同的尺度出现。为了缓解这些挑战,百度团队提出了一种金字塔多样化注意模块,以自动和自适应地学习多尺度的多样化局部表示。更具体地说,开发了金字塔注意力模块以捕获多尺度特征;同时为了鼓励模型专注于不同的局部块,开发了多元化的学习方法。其次,为了融合来自低层的局部细节或小尺度面部特征图,可以使用分层双线性池化来代替串联或添加。

    4.视频理解&分析

    ActBERT: Learning Global-Local Video-Text Representations

    在这里插入图片描述

    受到BERT在自我监督训练中的启发,百度团队对视频和文字进行类似的联合建模,并基于叙述性视频进行视频和文本对应关系研究。其中对齐的文本是通过现成的自动语音识别功能提供的,这些叙述性视频是进行视频文本关系研究的丰富数据来源。ActBERT加强了视频文字特征,可以发掘到细粒度的物体以及全局动作意图。百度团队在许多视频和语言任务上验证了ActBERT的泛化能力,比如文本视频片段检索、视频字幕生成、视频问题解答、动作分段和动作片段定位等,ActBERT明显优于最新的一些视频文字处理算法,进一步证明了它在视频文本特征学习中的优越性。

    Memory Aggregation Networks for Efficient Interactive Video Object
    Segmentation

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    该论文目的是设计一个快速的交互式视频分割系统,用户可以基于视频某一帧在目标物上给出简单的线,分割系统会把整个视频中该目标物分割出来。此前,针对交互式视频分割的方法通常使用两个独立的神经网络,分别进行交互帧分割、将分割结果传导至其他帧。本文将交互与传导融合在一个框架内,并使用像素embedding的方法,视频中每一帧只需要提取一次像素embedding,更有效率。另外,该方式使用了创新性的记忆存储机制,将之前交互的内容作用到每一帧并存储下来,在新的一轮交互中,读取记忆中对应帧的特征图,并及时更新记忆。该方式大幅提升分割结果的鲁棒性,在DAVIS数据集上取得了领先的成绩。

    Action Segmentation with Joint Self-Supervised Temporal Domain Adaptation

    在这里插入图片描述

    尽管最近在完全监督的领域上,动作分割技术方面取得了进步,但是其性能仍有不足。一个主要的挑战是时空变化的问题(例如不同的人可能以各种方式进行相同的动作)。因此,该论文中利用未标记的视频来解决此问题,方法是将动作分割任务重新设计为跨域(domain)问题,而且该跨域问题主要针对时空变化引起的域差异。为了减少差异,论文提出了“自我监督的时域自适应(SSTDA)”,其中包含两个自我监督的辅助任务(binary和sequential的域预测),以联合对齐嵌入不同规模时域动态的跨域特征空间,从而获得比其他域适应(DA)方法更好的效果。在三个具有挑战性的公开数据集(GTEA、50Salads和Breakfast)上,SSTDA远远领先于当前的最新方法,并且只需要65%的标签训练数据即可获得与当前最新方法可比的性能,这也表明该方法可以有效利用未标签目标视频来适应各种变化。

    5。图像超分辨

    Channel Attention based Iterative Residual Learning for Depth Map
    Super-Resolution

    在这里插入图片描述

    随着深度信息的应用范围越来越大,深度图像超分辨问题引起了广泛研究者的关注。深度图像超分辨率是指由低分辨率深度图像为基础,获取高质量的高分辨率深度图像。本文提出的是一种深度图像超分辨率方法,同时对低分辨率深度图像的产生方式进行分析,并提出两种模拟低分辨率深度图像生成的方式:伴随噪声的非线性插值降采样产生方式及间隔降采样产生方式。针对不同类型的低分辨率深度图像,本文使用迭代的残差学习框架以低分辨率深度图像为输入,以coarse-to-fine的方式逐步恢复高分辨率深度图像的高频信息;同时,使用通道增强的策略加强包含高频信息较多的通道在整个学习框架中的作用;另外,还使用多阶段融合的策略有效复用在coarse-to-fine过程中获得的有效信息;最后,通过TGV约束和输入损失函数进一步优化获得的高分辨率深度图像。此次提出的方法可以有效处理深度图像超分辨率问题,与目前已知的方法相比,效果显著,优势明显。

    6.神经网络架构搜索

    GP-NAS: Gaussian Process based Neural Architecture Search

    在这里插入图片描述

    通过对深度神经网络进行模型结构自动搜索, NAS(Neural
    ArchitectureSearch)在各类计算机视觉的任务中都超越了人工设计模型结构的性能。

    本论文旨在解决NAS中的三个重要问题:

    如何衡量模型结构与其性能之间的相关性?

    如何评估不同模型结构之间的相关性?

    如何用少量样本学习这些相关性?

    为此,本论文首先从贝叶斯视角来对这些相关性进行建模。

    首先,通过引入一种新颖的基于高斯过程的NAS(GP-NAS)方法,并通过定制化的核函数和均值函数对相关性进行建模。并且,均值函数和核函数都是可以在线学习的,以实现针对不同搜索空间中的复杂相关性的自适应建模。此外,通过结合基于互信息的采样方法,可以通过最少的采样次数就能估计/学习出GP-NAS的均值函数和核函数。在学习得到均值函数和核函数之后,GP-NAS就可以预测出不同场景,不同平台下任意模型结构的性能,并且从理论上得到这些性能的置信度。在CIFAR10和ImageNet上的大量实验证明了我们算法的有效性,并且取得了SOTA的实验结果。

    BFBox: Searching Face-appropriate Backbone and Feature Pyramid Network for
    Robust Face Detector

    本文提出的BFBox是基于神经网络架构搜索的方法,同时搜索适合人脸检测的特征提取器和特征金字塔。动机是我们发现了一个有趣的现象:针对图像分类任务设计的流行的特征提取器已经在通用目标检测任务上验证了其重要的兼容性,然而在人脸检测任务上却没有取得预期的效果。同时不同的特征提取器与特征金字塔的结合也不是完全正相关的。首先,本文对于比较好的特征提取器进行分析,提出了适合人脸的搜索空间;其次,提出了特征金字塔注意力模块(FPN-attention Module)去加强特征提取器和特征金字塔之间的联系;最后,
    采取SNAS的方法同时搜出适合人脸的特征提取器和特征金字塔结构。多个数据集上的实验表明了BFBox方法的优越性。

    7.结构设计

    Gated Channel Transformation for Visual Recognition

    在这里插入图片描述
    本文针对深度卷积神经网络提出了一种常规的、易应用的变换单元,即Gated Channel
    Transformation (GCT) 模块。GCT结合了归一化方法和注意力机制,并使用轻量级的、易于分析的变量来隐式地学习网络通道间的相互关系。这些通道量级的变量可以直接影响神经元间的竞争或者合作行为,且能方便地与卷积网络本身的权重参数一同参与训练。通过引入归一化方法,GCT模块要远比SE-Nets的SE模块轻量,这使得将GCT部署在每个卷积层上而不让网络变得过于臃肿成为了可能。本文在多个大型数据集上针对数种基础视觉任务进行了充分的实验,即ImageNet数据集上的图片分类,COCO上的目标检测与实例分割,还有Kinetics上的视频分类。在这些视觉任务上,引入GCT模块均能带来明显的性能提升。这些大量的实验充分证明了GCT模块的有效性。

    8.表征学习

    Label-Isolated Memory for Long-Tailed Visual Recognition

    实际场景中的数据通常遵循“长尾”分布。大量类别都是数据较少,而有少数类别数据充足。为了解决类不平衡问题,本文引入了类别隔离记忆结构(LIM)用于长尾视觉识别。首先,LIM增强了卷积神经网络快速学习尾部类别特征的能力。通过存储每个类的最显著的类别特征,独立更新存储单元,LIM进一步降低了分类器学偏的可能。其次,本文为多尺度空间特征编码引入了一种新颖的区域自注意力机制。为了提高尾类识别通用性,合并更多区别性强的特征是有好处的。本文提出以多个尺度对局部特征图进行编码,同时背景信息也被融合进来。配备LIM和区域自注意力机制,该方法在5个数据集上都取得了最好的性能。

    CVPR是计算机视觉领域的国际顶级会议,百度能够在CVPR中保持多年的优势,除了在国际领域中屡获佳绩的视觉技术,其语音、人脸、NLP、OCR等技术也有不俗的成绩,调用量均为中国第一。

    未来,Apollo自动驾驶技术还将不断打磨、创新,协同百度AI生态体系,致力于顶尖的学术研究、前瞻的技术布局、深入行业的落地应用,为全球自动驾驶领域贡献更多突破性的科技力量。

    展开全文
  • 无人驾驶路径规划论文It was a year ago (summer 2019) when I was deciding what topic to choose for my bachelor thesis. At the time I was finishing an internship at the European Space Agency where I ...

    无人驾驶路径规划论文

    It was a year ago (summer 2019) when I was deciding what topic to choose for my bachelor thesis. At the time I was finishing an internship at the European Space Agency where I worked on mineralogical machine learning research¹. However, I also knew that at my university there is a lot of research with self-driving cars in collaboration with Toyota. While mineralogical research that could be possibly used in future planetary missions is very important, self-driving cars are not only exciting, but also tangible and presentable. So I contacted my former research supervisor from my university whether he had any research ideas in this area. Among many proposed, I was most excited by Autonomous Car Chasing.

    一年前(2019年夏季),我正在决定为我的学士论文选择哪个主题。 当时,我正在欧洲航天局完成实习,在那里我从事矿物学机器学习研究 ¹。 但是,我也知道,在我的大学里,有很多与丰田合作的无人驾驶汽车研究。 虽然这可能在未来行星任务可能被用于矿物学研究是非常重要的,自动驾驶汽车不仅令人兴奋,但也是有形的和像样的 。 因此,我联系了我大学的前研究主管,他是否对此领域有任何研究想法。 在提出的众多建议中,自动驾驶汽车追逐令我最为兴奋。

    为什么要追车? (Why Car Chasing?)

    When you look at autonomous cars in real-life, you will see that they are most often used in situations when the driving is too boring for a driver. They are used on a highway in a traffic jam or in a convoy driving at a near-constant speed. However, regular traffic forces the drivers to react to many unexpected situations and perform dynamic maneuvers. The proposed car chasing scenario, in which an autonomous car chases a non-cooperative vehicle that actively tries to drive away, is so extreme that an autonomous vehicle with car chasing capabilities can surely handle regular traffic.

    在现实生活中观察自动驾驶汽车时,您会发现它们最常用于驾驶员无聊的情况。 它们用在高速公路上的交通拥堵中或以接近恒定的速度行驶的车队中。 但是,常规交通迫使驾驶员对许多意外情况做出React并进行动态操纵。 拟议的汽车追逐场景非常极端,以至于无人驾驶汽车追逐主动试图驶离的非合作车辆,因此具有汽车追逐能力的自动驾驶汽车肯定可以应付正常的交通。

    新的具有挑战性的数据集 (New challenging dataset)

    The first task was to create an autonomous car chasing system and test it in CARLA. To perform the experiments we first collected a new challenging publicly available CARLA Car Chasing Dataset collected by manually driving the chased car. We created a baseline algorithm, which detected the pursued car and then basically drove straight after it. This approach had a huge flaw. It wasn’t considering the surrounding environment while driving. It was only focused on the pursued car. Therefore, this system crashed a lot. We realized our system needed an understanding of the surrounding environment. We considered adding semantic segmentation neural network, but we already had a neural network detector. We needed to analyze as many frames per second as possible and also had a very limited computational power (embedded system on a RC car). We needed a fast and effective solution.

    第一个任务是创建一个自动驾驶汽车追踪系统,并在CARLA中对其进行测试。 为了进行实验,我们首先收集了一个新的具有挑战性的公开可用的CARLA汽车追踪数据集 ,该数据集是通过手动驾驶被追踪的汽车而收集的。 我们创建了一个基准算法,该算法可以检测出所追逐的汽车,然后基本上在行驶后一直行驶。 这种方法有一个巨大的缺陷。 开车时没有考虑周围的环境。 它只专注于追逐的汽车。 因此,该系统崩溃很多。 我们意识到我们的系统需要了解周围的环境。 我们考虑过添加语义分割神经网络,但是我们已经有一个神经网络检测器。 我们需要每秒分析尽可能多的帧,并且计算能力也非常有限(RC汽车上的嵌入式系统)。 我们需要一种快速有效的解决方案。

    双任务神经网络 (Dual-task neural network)

    During inference, an image is passed through the network just once. The network provides an object detection as well as the semantic segmentation outputs. While the training is slightly slower than training a single-task neural network, the extra cost during inference of the proposed architecture is negligible. The segmentation output provides a semantic map of the input image consisting of 10x10 cells of two classes: a drivable surface and a background, see the image below.

    在推理期间,图像仅通过网络传递一次。 网络提供对象检测以及语义分段输出。 虽然训练比训练单任务神经网络要慢一些,但是在推断所提出的体系结构期间的额外费用可以忽略不计。 分割输出提供输入图像的语义图,该输入图像由两类10x10的单元组成:可驱动的表面和背景,请参见下图。

    Image for post
    Segmented image, taken from²
    分割图像,取自²

    The neural network shares the same backbone for both tasks — a 53 layer feature extractor called Darknet-53⁴. Attached to the feature extractor are two sets of layers — one that gives the output for the object detection and the other that gives an output for the image segmentation. The architecture of the neural network is depicted in the image below. The network is trained by alternating optimization — in every second batch, the network is optimized only for detection, while the segmentation is optimized in the remaining batches. The neural network uses different loss functions depending on the batch².

    神经网络在两个任务上共享相同的主干-一个称为Darknet-53的53层特征提取器。 连接到特征提取器的是两组图层-一组为对象检测提供输出,另一组为图像分割提供输出。 下图描述了神经网络的体系结构。 通过交替优化来训练网络-在每第二批中,仅针对检测对网络进行优化,而在其余批次中对分段进行优化。 根据批次²,神经网络使用不同的损失函数。

    Image for post
    Network architecture, taken from²
    网络架构,取自²

    实验结果 (Experiment results)

    First, we tested the system using a difficult subset of the CARLA Car Chasing Dataset. We observed, that the full algorithm performed significantly better than other versions of the system that did not use coarse semantic segmentation. It achieved almost 10 percentage points higher drive completion on average than the next best-evaluated version. We also showed that the dual-task neural network system is more resistant to detector miss rate (when the detector failed to detect the pursued car).

    首先,我们使用CARLA Car Chasing数据集的困难子集测试了系统。 我们观察到,完整算法的性能明显优于不使用粗略语义分割的其他版本的系统。 与下一个最佳评价版本相比,它的驱动器平均完成率提高了近10个百分点。 我们还表明,双任务神经网络系统对检测器未命中率的抵抗力更高(当检测器无法检测到所追捕的汽车时)。

    Then, we performed several live tests under different weather and lighting conditions. The system was tested on an empty roundabout as well as in a residential area as depicted in the image below. The autonomous system followed the other car smoothly without jerky movements. For the most part, it was able to successfully chase the other vehicle. It was maintaining the desired distance when the pursued car was driving in a straight line. If the chased car stopped, so did the autonomous system. A limitation of the system comes from its current reactive nature, which in certain rides affected the ability to make a U-turn on a narrow road.

    然后,我们在不同的天气和光照条件下进行了几次现场测试。 如下图所示,该系统在空的回旋处以及住宅区进行了测试。 自主系统平稳地跟随另一辆汽车,没有晃动。 在大多数情况下,它能够成功追逐另一辆车。 当被追赶的汽车以直线行驶时,它保持了所需的距离。 如果被追赶的汽车停了,那么自动驾驶系统也会停下来。 该系统的局限性在于它目前的React特性,在某些行驶过程中,它会影响在狭窄道路上掉头的能力。

    Image for post
    Real-world test where trajectories of both vehicles are shown: blue of the chasing and dashed black of the pursued car, taken from²
    真实世界的测试,其中显示了两种车辆的轨迹:追逐的蓝色和追逐的黑色的虚线,取自²

    会议 (Conference)

    The results of the novel proposed approach were clear and before the bachelor thesis was even finished, we knew there was a potential for publication. After finishing polishing the thesis, we started its transformation into a research article. A multiple-page section in the thesis easily turned into a couple of lines in the publication. Unlike a thesis that mainly serves as proof of your understanding of the topic, we turned it into something that could be read by other people. We decided to publish to a workshop associated with the third most prestigious conference on computer vision called European Conference on Computer Vision (ECCV). The main advantage of a workshop is its short processing time. In two weeks, we knew our paper was accepted.

    提出的新方法的结果很明确,甚至在学士学位论文尚未完成之前,我们就知道有发表的潜力。 完成论文的完善后,我们开始将其转化为研究论文。 论文中多页的部分很容易变成出版物中的两行。 与主要用来证明您对该主题的理解的论文不同,我们将其转变为其他人可以阅读的东西。 我们决定将与第三届最负盛名的计算机视觉会议 ( 欧洲计算机视觉会议 (ECCV))相关的研讨会发布。 车间的主要优点是加工时间短。 两周后,我们知道我们的论文被接受了

    讨论区 (Discussion)

    This paper isn’t the first (nor second) paper I have published. I am also not flying to the other side of the world to present it like with my first publication (FG 2018 in China) because the conference is only online/virtual due to COVID-19. That said, I am very proud of the paper. The project is very exciting and hopefully, other researchers (or students at FIT CTU) will attempt to improve on the method.

    本文不是我发表的第一篇(也是第二篇)。 我也没有像我的第一本出版物(FG 2018在中国)那样飞往世界的另一端,因为由于COVID-19,这次会议只是在线/虚拟的。 就是说,我为这份文件感到骄傲。 该项目非常令人兴奋,希望其他研究人员(或FIT CTU的学生)将尝试改进该方法。

    I believe that my motivation for the topic was the main reason for the success of the thesis. The thesis topic was exciting and also purposeful and I wish you to find a topic that you can get excited about. I hope there can be a collaboration between Center for Machine Perception (CMP) at FEL CTU and FIT CTU. If you are interested in autonomous driving or computer vision, CMP is a place to be. I can also definitely recommend my supervisor Jan Cech, who discussed the thesis progress with me on a regular weekly basis.

    我相信我对该主题的动机是论文取得成功的主要原因。 论文主题既令人兴奋,又有针对性,我希望您能找到一个令您兴奋的主题。 我希望FEL CTU的机器感知中心(CMP)与FIT CTU之间可以进行合作。 如果您对自动驾驶或计算机视觉感兴趣,可以选择CMP。 我当然也可以推荐我的主管Jan Cech,他每周定期与我讨论论文的进展情况。

    结论 (Conclusion)

    We have developed a system, capable of autonomously chasing another vehicle, using the novel dual-task network that concurrently detects objects and predicts coarse semantic segmentation. The proposed system was extensively tested in CARLA simulator using a new challenging publicly available (at our GitHub) chasing dataset and on a real sub-scale vehicle platform (video available on youtube).

    我们已经开发了一种系统,该系统能够使用新颖的双任务网络同时自动检测对象并预测粗略的语义分割,从而能够自动追逐另一辆车。 拟议的系统已在CARLA模拟器中使用新的具有挑战性的公开可用( 在我们的GitHub上 )的追踪数据集和真实的小规模车辆平台( 在youtube上提供了视频 )进行了广泛测试。

    Despite the simplicity of the proposed system, it shows robust chasing capabilities by using only information from a single RGB camera. One of the system limitations is its reactive nature. We believe that the system could improve by using a more sophisticated trajectory planning algorithm that would include predictive modeling of the chased car.

    尽管建议的系统很简单,但仅使用来自单个RGB摄像机的信息,它仍显示出强大的跟踪能力。 系统限制之一是其React性。 我们认为,可以通过使用更复杂的轨迹规划算法(包括对被追赶的汽车进行预测建模)来改善系统。

    We hope to inspire other researchers or students looking for a thesis topic to try and improve our methods. We believe that testing an autonomous driving system under extreme conditions is an important step to creating public trust in self-driving cars. Ultimately, extreme challenges like the DARPA challenge, or our autonomous car chasing is what will drive innovation forward.

    我们希望启发其他正在寻找论文主题的研究人员或学生尝试并改进我们的方法。 我们认为,在极端条件下测试自动驾驶系统是建立公众对自动驾驶汽车的信任的重要步骤。 最终,诸如DARPA挑战之类的极端挑战或我们的自动驾驶汽车追逐将推动创新向前发展。

    翻译自: https://medium.com/student-success-stories/autonomous-car-chasing-from-thesis-to-a-conference-paper-a750ef46b76e

    无人驾驶路径规划论文

    展开全文
  • 人类驾驶员和汽车来分享控制权,驾驶员在某些预设环境下可以不操作汽车,即手脚同时离开控制,但驾驶员仍需要随时待命,对驾驶安全负责,并随时准备在短时间内接管汽车驾驶权。比如结合了 ACC 和 LKS 形成的跟车...

    Overall

    • Self-Driving Cars: A Survey [Paper]

      • Claudine Badue, Rânik Guidolini, Raphael Vivacqua Carneiro, Pedro Azevedo, Vinicius Brito Cardoso, Avelino Forechi, Luan Ferreira Reis Jesus, Rodrigo Ferreira Berriel, Thiago Meireles Paixão, Filipe Mutz, Thiago Oliveira-Santos, Alberto Ferreira De Souza
        摘要
        在这里插入图片描述
    • MIT Autonomous Vehicle Technology Study: Large-Scale Deep Learning Based Analysis of Driver Behavior and Interaction with Automation [Paper]

      • Lex Fridman, Daniel E. Brown, Michael Glazer, William Angell, Spencer Dodd, Benedikt Jenik,
        Jack Terwilliger, Julia Kindelsberger, Li Ding, Sean Seaman, Hillary Abraham, Alea Mehler,
        Andrew Sipperley, Anthony Pettinato, Bobbie Seppelt, Linda Angell, Bruce Mehler, Bryan Reimer

    在这里插入图片描述
    在这里插入图片描述

    • Reading Material Advanced Machine Learning by SungjuHwang [github]

    Level 0:无自动化(No Automation)

       没有任何自动驾驶功能或技术,人类驾驶员对汽车所有功能拥有绝对控制权。驾驶员需要负责转向、加速、制动和观察道路状况。任何驾驶辅助技术,例如现有的前向碰撞预警、车道偏离预警,以及自动雨刷和自动前灯控制等,虽然有一定的智能化,但是仍需要人来控制车辆,所以都仍属于 Level 0。
    

    Level 1:驾驶辅助(Driver Assistance)

       驾驶员仍然对行车安全负责,不过可以授权部分控制权给系统管理,某些功能可以自动进行,比如常见的自适应巡航(Adaptive Cruise Control,ACC)、应急刹车辅助(Emergency Brake Assist,EBA)和车道保持(Lane-Keep Support,LKS)。Level 1 的特点是只有单一功能,驾驶员无法做到手和脚同时不操控。
    

    Level 2:部分自动化(Partial Automation)

            人类驾驶员和汽车来分享控制权,驾驶员在某些预设环境下可以不操作汽车,即手脚同时离开控制,但驾驶员仍需要随时待命,对驾驶安全负责,并随时准备在短时间内接管汽车驾驶权。比如结合了 ACC 和 LKS 形成的跟车功能。Level 2 的核心不在于要有两个以上的功能,而在于驾驶员可以不再作为主要操作者。
    

    Level 3:有条件自动化(Conditional Automation)

       在有限情况下实现自动控制,比如在预设的路段(如高速和人流较少的城市路段),汽车自动驾驶可以完全负责整个车辆的操控,但是当遇到紧急情况,驾驶员仍需要在某些时候接管汽车,但有足够的预警时间,如即将进入修路的路段(Road work ahead)。Level 3 将解放驾驶员,即对行车安全不再负责,不必监视道路状况。
    

    Level 4:高度自动化(High Automation)

       自动驾驶在特定的道路条件下可以高度自动化,比如封闭的园区、高速公路、城市道路或固定的行车线路等,这这些受限的条件下,人类驾驶员可以全程不用干预。
    

    Level 5:完全自动化(Full Automation)

       对行车环境不加限制,可以自动地应对各种复杂的交通状况和道路环境等,在无须人协助的情况下由出发地驶向目的地,仅需起点和终点信息,汽车将全程负责行车安全,并完全不依赖驾驶员干涉,且不受特定道路的限制。
    
    展开全文
  • 2019无人自动驾驶论文合集 并且还包括一下资料的获取方式: 涵盖感知,规划和控制,ADAS,传感器; 1. apollo相关的技术教程和文档; 2. adas(高级辅助驾驶)算法设计(例如AEB,ACC,LKA等) 3. 自动驾驶鼻祖...
  • 2020自动驾驶论文合集 以及一下资料的获取方式: 涵盖感知,规划和控制,ADAS,传感器; 1. apollo相关的技术教程和文档; 2. adas(高级辅助驾驶)算法设计(例如AEB,ACC,LKA等) 3. 自动驾驶鼻祖mobileye的论文和...
  • 感知,规划,定位,v2x,高清地图.... 一些综述文章以及无人驾驶各方面论文
  • 环境感知技术是无人驾驶车辆安全的保证。 当前,关于环境感知的研究和综述很多,旨在实现无人驾驶,同时确保人类生命的安全。 但是,该技术在新时代面临着新的挑战。 这篇综述文章试图系统地总结环境感知技术,并...
  • 论文介绍论文为2019年发布在Robotics上的"A Survey of Autonomous Driving: Common Practices and Emerging Technologies"[1]论文对比作者首先比较了目前的无人驾驶综述论文,存在的问题是目前无人驾驶综述论文的侧...

    ce20d28337867649ed9ce62307f893e0.png

    论文介绍

    论文为2019年发布在Robotics上的

    "A Survey of Autonomous Driving: Common Practices and Emerging Technologies"[1]

    论文对比

    作者首先比较了目前的无人驾驶综述论文,存在的问题是目前无人驾驶综述论文的侧重点都不一样,所以作者准备做一个详尽的调查,下图是不同论文的侧重点:

    f4a0426b7672520cfbe44680a59f1995.png

    可以看到上述论文都只是针对无人驾驶的某几个模块做了介绍,而最后一个是本论文的介绍,比较完备(除了没有control模块):Connected systems, End-to-End, Localization, Perception, Assessment, Planning, Control, HMI, Datesets & Software, Implementation.

    前景和挑战

    接着作者介绍了无人驾驶的前景和挑战,首先作者提出虽然ADS短期并不会普及,但是还是可以遇见到带来的好处,作者总结的非常好,包括3个方面:

    • 可以解决的问题 - 预防交通事故,减少交通拥堵,减少排放
    • 可以捉住的机会 - 重新分配驾驶时间,解决运输出行障碍
    • 新趋势 - 出行既服务,物流革命

    首先自动驾驶可以解决在由于人类驾驶员错误行为导致的交通事故,例如分心,超速,酒驾等情况;其次60岁以上的老人增加的很快,解决老年人的出行问题对他们的生活质量改善很大;最后,共享出行现在是一个趋势,节省了出行成本。

    按照目前的驾驶技术还不能达到level4的水平。

    系统架构

    作者分别从2个层面论述了无人驾驶系统的架构,一是从连接层面,二是从算法层面,下图是具体的划分:

    de041e4c532e4df25cf304deef97fbbf.png

    连接层面 - 在连接层面分为2种:一种是单车智能,即单个车即使不联网也具备自动驾驶能力;另一种是网连智能,不强调单车的智能(有的话当然更好),强调通过网络实现整个交通的智能,不仅仅包括车,还包括交通灯,摄像头,以及其他设备,目前中美两国的分歧也在这里,看起来是押国运的2个方案。ego-only systems主要是指依赖本车的智能,而不需要依赖其他车辆或者外部传感器,而connected systems则是相对的,汽车通过v2x设备组成车联网。

    算法层面 - 在算法层面分为2种:一种是目前主流的分模块的划分;另一种就是端到端的自动驾驶系统。可以看到左边的系统架构根据无人驾驶的需要将不同的功能划分为不同的模块,各个模块负责不同的功能,最后组成整个自动驾驶系统;而右边的架构为端到端的自动驾驶方案,说直白一点就是直接根据传感器输入,然后输出汽车的方向盘转交,油门刹车信息。端到端的自动驾驶好处是系统简单,主要的方法可以参考英伟达的论文。

    下面是端到端无人驾驶的流程图:

    e1ebcb6e3cca3314247dccd47c250668.png

    端到端的自动驾驶系统结构非常简单,也很接近人类驾驶的习惯,坏处是不可解释性,目前也达不到强人工智能,超过人类驾驶员。

    传感器

    作者接着介绍了无人驾驶的各种传感器以及传感器的优缺点,这一点其他资料介绍的非常多了,这里直接上图:

    d543ee1e1ec55f5e2f6995305996b17e.png

    定位

    目前state-of-art的定位主要分为3种:

    • GPS/IMU融合 - Gps和IMU融合的方案是目前主流的定位方案,采用rtk 技术之后定位的精度可以达到厘米级别,目前遇到的问题是在高楼,隧道等信号不太好的地方定位误差会变大。
    • 基于先验地图 - 基于先验地图的方案主要是实现把周围环境的信息保存下来,以高精度地图为例子,实现采集并存储高精度地图中的点云信息,然后基于ICP或者NDT算法进行点云匹配,匹配到的位置即是当前车辆的位置,好处是在Gps信号不好的时候也可以使用,缺点是运算量大,在周围环境发生变化时,如何更新地图。
    • SLAM - slam方法的好处是不依赖于先验地图,可以在陌生环境(乡村或者一些环境变化迅速的场景)使用,缺点是计算量太大,算法做不到实时,基于视觉的slam精度也达不到要求。

    下面是作者对各种定位方法做的对比和总结:

    5a4c0cedaa33e397501d91ae4e8845ea.png

    下图是基于NDT点云定位的例子:

    0d6691bd13ec44bc4222e2628ecd1164.png

    预测主要分为几块:基于图像的物体识别,语义分割,3D物体识别,道路和车道线识别和物体追踪,下面我们来分别介绍。

    基于图像的物体识别

    无人驾驶中的物体识别是指识别感兴趣对象的位置和大小,包括静态物体识别:红绿灯,交通标志,道路交叉口和动态物体识别:车辆,行人和自行车。

    目前最先进的方法都依赖于DCNN(深度卷积神经网络),但它们之间目前存在明显的区别:

    • 单级检测框架使用单个网络同时生成对象检测位置和类别预测。主流的算法有:YOLO(You Only Look Once), SSD(Single Shot Detector)
    • 区域提取检测框架分为两个不同的阶段,首先提出感兴趣的常规区域,然后通过单独的分类器网络进行分类。

    下图是主流的图像目标检测算法在ImageNet上的benchmark:

    ff62563f72ea7a5a620d6d036610d0fa.png

    区域提取检测框架是目前效果最好的方法,但是需要很高的计算能力,并且通常难以实施,训练和微调。同时,单级检测算法往往具有快速的推理时间和较低的存储成本,能够满足无人驾驶实时计算的需求。

    由于近年来计算能力的提升,讲来RPN(region proposal networks)可能取代单机检测网络,成为自动驾驶的主流检测算法。

    由于图像检测算法强依赖于相机,这里作者又对2种新的相机做了简单的介绍:

    全向相机(Omnidirectional Cameras)

    全向相机可以得出一个360度视角的图像,这类相机由于视角很大,有些是2颗摄像头,有些是4-6颗摄像头,摄像头多为广交鱼眼镜头,往往需要考虑镜面反射或鱼眼镜头变形,要进行校准。全向相机的主要应用场景是:SLAM和三维重建。

    下面是全向相机的一个例子:

    1f6aac2e306e033a04003dd166da0dbc.png

    事件相机(Event Cameras)

    事件相机是一种新的相机,主要是根据场景中的运动成像,也就是说事件相机对运行的捕捉非常快,响应时间为微秒。而普通的相机是感光成像,类似人眼,速度快了之后会出现“运动模糊”(因为速度快了之后,感光时间不够导致重影或者运动模糊)。得益于事件相机的帧率,响应时间,这样在高速驾驶的时候也能够清晰成像,事件相机目前已经应用在端到端的无人驾驶系统中。

    下图是事件相机的一个例子,左边的根据物体的动态成像,而右边是普通相机的感光成像:

    0d00ce7f34b58f0160f39d1a57aa5707.png

    照明不良和外观变化

    使用相机的主要缺点是照明条件的变化会严重影响其性能。弱光照条件的场景本来就很难解决,更不要说由于强光照射,阴影移动,天气和季节变化导致的照明变化可能导致算法的失败了。一个显而易见的方法是用备份的传感方式进行感知,例如lidar和radar。但是lidar和radar的感知都有受限的场景,因此传感器融合方案可能是最佳的选择。

    通过红外传感器的热成像也可用于弱光条件下的物体检测,这对行人检测很有效。当然目前还已经开发出尝试直接处理动态照明条件的纯相机方法,已经提出尝试提取照明不变特征和评估特征质量2种方法。

    照明不变特征可以参考论文"Illumination Invariant Imaging: Applications in Robust Vision-based Localisation, Mapping and Classification for Autonomous Vehicles"[2],下面是截取的论文中的一个例子,可以看到在上午9点和下午5点不同的光照条件下提取出照明不变特征:

    14597a5784232aab15a3f5c0100a22a2.png

    评估特征质量的方法参考论文"PROBE-GK: Predictive robust estimation using generalized kernels"。该论文的主要观点是:大多数基于特征的方法都依靠随机样本共识算法,将提取的特征划分为离群值和离群值,而本论文则描述了一种以数据为依据的有原则的方法来为视觉里程表建立噪声模型。

    目前应对照明不足和照明变化带来的不可预测性仍然是阻止纯相机方法在自动驾驶中广泛应用的主要挑战。

    语义分割

    这项任务对驾驶自动化特别重要,因为某些目标对象很难通过边界框来定义,特别是道路,交通线,人行道和建筑物。下面是图像分割的一个例子:

    b142e68a203052b0d3749aaced87306a.png

    语义分割和物体识别实际上非常相似,用于分割的Mask R-CNN是Faster R-CNN的概括。当能够达到5fps的速率时,就可以满足自动驾驶的要求了。

    目前用于语义分割的网络还是太慢而且计算代价太昂贵了,鉴于上面的介绍,作者认为未来会有单一,通用的网络能够解决自动驾驶不同感知任务的可能性。

    3D物体识别

    在避障等动态驾驶任务需要环境的3D信息,目前3D信息主要依赖点激光雷达的点云数据,下面是kiit 上各种算法的对比,对应用来说,不仅仅是准确率,耗时也是很重要的指标(3D的卷积神经网络比2D的卷积神经网络更加耗时)。

    2944d46205d78b3e337bc993a8ea850e.png

    下图是3d物体识别例子,3d物体识别的流程一般是先进行滤波,然后进行聚类,最后提取特征做识别:

    85c8a392499f9a974f83e63d08302e24.png

    当然也可以用RGB-D相机获取深度信息,但由于RGB-D的作用范围有限,并且在室外不太可靠,目前没有应用在自动驾驶领域。

    雷达(Radar)

    讲雷达系统应用在自动驾驶中主要的缺点是雷达的对物体形状的采样精度不够,这对测量大物体,例如汽车来说是可行的,但是对于行人和静态物体是个挑战。另外一个问题是雷达的视野范围非常有限,需要一组雷达去覆盖比较全的视野范围。

    虽然如此,雷达还是在自动驾驶中应用广泛,雷达测量的距离很远,低成本,并且对恶劣天气的适应性强。目前往往需要lidar和radar一起应用于自动驾驶感知。

    另外一个和radar相似的传感器是声纳,由于它的距离非常短<2m,和比较差的角度分辨率,目前只能应用于非常近的障碍物感知。

    物体追踪

    概述了滤波方法和深度学习2种方法:

    • 滤波方法 - 卡尔曼滤波,粒子滤波等方法,是之前的传统方法,主要是根据统计学的方法来估计物体的轨迹。
    • 深度学习 - 深度学习的方法是目前比较新的方法,目前的算法也接近实时了。

    下面是作者用基础粒子滤波做的追踪效果图:

    bb8d184964357aef6337703f2b1c9f13.png

    当然也有2种方法结合的,这里说下我自己的看法,看了下物体追踪相关的材料,发现传统的滤波方法和深度学习的方法目前都不相上下,其实现在问题有点演变成了逐帧识别物体,然后每帧的位置就是当前物体的位置。这也好理解,我们跟踪一个人也是根据特征找到他,然后预测他下次大概会出现在哪里。

    而无人车刚好需要做物体识别,所以之后顺理成章的把识别好的数据拿来做追踪,如果说需要纯研究追踪也有直接提取特征,不需要做识别的。目前apollo系统中的预测模块就是拿感知模块作为输入,然后预测的轨迹,至于这块步建议参考纯追踪算法。

    道路和车道线识别

    可行驶区域识别对自动驾驶至关重要,并且单独作为一个子问题在研究,目前能够识别并且理解道路的结构化信息依然是一个很有挑战的问题。

    此问题通常细分为几个任务,每个任务都可以实现一定程度的自动化:

    • 可行驶区域检测 - 检测车道和本车当前行驶车道,可以应用于:车道偏离警告,车道保持和自适应巡航控制。
    • 道路复杂语义理解 - 识别其他车道和方向, 以及道路是合并还是转弯,简单点说就是理解道路的结构化信息。应用于全自动驾驶。

    目前道路的结构化信息还是通过高精度地图来获取。

    e9e623f6d307710202298ce3db988aae.png

    目前车道识别已经成功应用于车道保持的功能,但是真正鲁棒和普适性的方法还是需要进一步研究,下面2篇论文是作者推荐的道路和车道识别的综述论文:

    • Recent progress in road and lane detection: a survey
    • A hybrid Vision-Map method for urban road detection

    评估

    自动驾驶汽车应该能够评估环境的整体风险水平,并且预测周围驾驶员和行人的意图,交通事故往往是缺乏急性评估机制引起的。评估也主要分为3个部分:风险和不确定性评估周围驾驶行为评估驾驶风格识别。这块的介绍后面再展开,下面是关于驾驶风格识别方法的对比:

    090841351f5c2eacf15cd55a9299ca91.png

    接着我们介绍规划,在本文中规划被分为二个方面:全局规划,本地规划。

    全局规划

    全局规划主要是规划目的地,类似目前用到的地图导航,传统的方法分为以下4个类别:

    1. goal-directed - A*是一种标准的目标导向路径规划算法,广泛在各个领域应用了50多年。
    2. separator-based - 主要是思想是从图中删除一部分顶点或圆弧,从而加快计算速度。
    3. hierarchical - 道路分为不同的等级:普通公路,高速公路和大动脉,这样导致的问题是最短的距离不一定是最快的(走高速更快),而收缩层次结构法(Contraction Hierarchies)用来处理该问题。
    4. bounded-hop 预先计算好2个点之间的距离和时间,这样计算的时候只需要查表就可以了,预处理技术是利用空间换时间。

    目前融合了上述几种方法的全局路径规划算法已经非常成熟了,往往可以在毫秒内进行查询。左图首先展示了全局规划,即找到一条从A点到B点的路径。而右图是本地规划,主要考虑汽车在道路上如何行驶,同时需要考虑障碍物,红绿灯等情况。

    9d70e54a568fe86f0f33ec966123b4af.png

    本地规划

    本地规划则是路径规划,即是短期的路径规划,分为4种传统方法加上1种深度学习的方法:

    1. graph-based planners - 图搜索算法的经典算法是Dijkstra和A*算法,输出的是离散路径而不是连续路径,更高级的图搜索算法是state lattice,对动态环境的路径规划非常有用。
    2. Sampling-based planners - 尝试通过随机采样来建立C-space的连通性。
    3. Interpolating curve planners - 曲线拟合到一组已知的点,主要的避障策略是对新的无碰撞路径进行插值,该路径首先会偏离,然后重新进入初始计划轨迹。得到的轨迹是平滑的,有各种常用的曲线族,例如回旋曲线,多项式,贝塞尔曲线和样条曲线。
    4. Optimization based motion planners - 通过优化功能提高现有路径的质量。
    5. deep learning based planners - 利用深度学习的方法输出规划路径,和端到端自动驾驶的区别是输出结果,前者是输出曲线,后者是输出油门刹车和方向盘。

    上述路径规划算法对比见下图:

    b934ec1551339bd2e6ea844fba46f559.png

    人机交互接口

    无人驾驶车通过人机交互接口(HMI)与驾驶员和乘客进行通信。其中最基本的是驾驶任务的交互,例如驾驶目的地的选择。听觉用户界面(AUI)将会是打车交互的好选择,目前车内的噪音以及角色理解可能是很难处理的部分。而且会出现新的交互需求,例如乘客需要了解和监控无人驾驶汽车目前的状况

    人机交互详细的介绍可以直接参考论文,这里就不展开了,人机交互这块在商业化交付的时候需要格外重视。

    本文最后介绍了无人驾驶数据集和可用的工具。

    数据集和基准

    本文整理了和对比了目前主流的数据集,直接上图:

    28a646553dd32098875289dfb46c14ee.png

    开源框架和仿真器

    目前主流的开源框架主要是:

    • Autoware
    • Apollo
    • Nvidia DriveWorks
    • openpilot

    无人驾驶的仿真如下:

    • CARLA
    • TORCS
    • Gazebo
    • SUMO

    上述软件大部分是开源的可以直接下载使用。

    总结

    至此整个论文的学习就结束了,关于本文的一个优点是不仅仅介绍目前主流的方法,而且还加入了自己的判断,并给出了建议,我觉得这是论文做的比较好的方面(很多论文只是简单的介绍方法,没有自己的判断和理解),论文的内容比较新也比较全面,总的来说非常推荐。

    如果觉得文章对你有帮助,欢迎点赞转发 : )

    参考

    1. ^A Survey of Autonomous Driving: Common Practices and Emerging Technologies https://arxiv.org/abs/1906.05113
    2. ^Illumination Invariant Imaging: Applications in Robust Vision-based Localisation, Mapping and Classification for Autonomous Vehicles http://www.robots.ox.ac.uk/~mobile/Papers/2014ICRA_maddern.pdf
    展开全文
  • Classification Densely Connected Convolutional Networks [Paper] Gao Huang, Zhuang Liu, Laurens van der Maaten, Kilian Q. Weinberger, arXiv:1608.... Microsoft (Deep Residual Learning) [Paper][Sl...
  • 目标检测、深度估计、无人驾驶 papers最新论文算法笔记 目标检测系列 目标检测 | Deep MANTA 算法笔记 目标检测 | DetNet算法笔记 目标检测 | Ladder-style DenseNet 算法笔记 DL Net | Capsual Net 算法学习笔记 ...
  • 笔者通过search相关论文,收录目前公布的无人驾驶相关的CVPR论文。 这段时间一直在收集相关论文,相关文章也压着没放出来。想想也是时候先POST了,供大家参考,后续有相关论文将继续更新~~~~ 也希望各位dalao一同...
  • 斯坦福大学的博士论文,详细阐述了如何对激光雷达进行标定,如何构建高精度地图,如何用高精度地图进行定位,斯坦福大学无人车的架构和传感器...深入浅出,是学习SLAM和无人驾驶的必读文章。内容是纯英文的,介意勿下。
  • CVPR2019:无人驾驶3D目标检测论文点评 重读CVPR2019的文章,现在对以下文章进行点评。 Stereo R-CNN based 3D Object Detection for Autonomous Driving introduction 本文提出了完全自动驾驶3D目标检测方法,...
  • 这是一篇中国科学技术大学的博士毕业论文,里面详细阐述了无人驾驶城市环境下无人驾驶车辆运动控制方法,有独到见解,也有对技术落地应用的想法。
  • 无人驾驶车野外环境水体障碍物检测,赵一兵,邓云翔,野外环境下水体障碍物会对陷入其中的无人驾驶车造成损害。针对静态水面特征呈现出的较高亮度、较低饱和度以及平滑的纹理特征,提
  • 无人驾驶,环境感知,图像处理,激光雷达,深度学习,论文摘要。
  • https://mp.weixin.qq.com/s/9N62fHbKO0B4hofEiV3yww
  • 无人驾驶挑战赛书籍--《The DARPA Urban Challenge 2009》,以及一些路径规划的论文,希望可以帮到大家!
  • CVPR2019:无人驾驶3D目标检测论文点评重读CVPR2019的文章,现在对以下文章进行点评。Stereo R-CNN based 3D Object Detection for Autonomous Driving1. introduction本文提出了完全自动驾驶3D目标检测方法,包括3D...
  • VPGNet: Vanishing Point Guided Network for Lane and Road Marking Detection and Recognition 这一篇文章主要是针对下雨天,地面湿漉漉的,可能会反光,拍摄的图片不清晰,公开的数据集没有包括这一类图片,现有...
  • 百度apollo无人驾驶,还包含自动驾驶学习资料 涵盖感知,规划和控制,ADAS,传感器; 1. apollo 相关的技术教程和文档; 2. adas(高级辅助驾驶)算法设计(例如 AEB,ACC,LKA 等) 3. 自动驾驶鼻祖 mobileye 的论文...
  • =========================================== ...=========================================== ...目录摘要一、绪论(一)课体研究背景及意义(二)国内外研究现状(三)研究方法二、无人驾驶汽车侵权的特殊性(一)无人驾驶汽车
  • 无人驾驶技术.zip

    2020-11-15 10:55:27
    讲述了无人驾驶的技术; 并且资料包了还包含了以下资料: 涵盖感知,规划和控制,ADAS,传感器; 1. apollo相关的技术教程和文档; 2. adas(高级辅助驾驶)算法设计(例如AEB,ACC,LKA等) 3. 自动驾驶鼻祖mobileye...
  • 无人驾驶的感知范围是十分重要的标准,但是现有单车的感知覆盖比较低下,往往出现死区( dead zone)和精度不足,因此考虑多车附近合作感知,利用贪婪算法和SVM算法来增强感知范围和精确度,用Li-GRU神经网络算法...
  • 读《无人驾驶智能车在动态环境中的避障方法》崔佳超硕士论文
  • 无人驾驶车硬件介绍.

    2020-12-05 14:46:12
    无人驾驶硬件介绍 涵盖感知,规划和控制,ADAS,传感器; 1. apollo相关的技术教程和文档; 2.adas(高级辅助驾驶)算法设计(例如AEB,ACC,LKA等) 3.自动驾驶鼻祖mobileye的论文和专利介绍 4.自动驾驶专项课程...
  • 文章目录前言一、论文内容二、复现总结 前言 这次为发表在2019年IROS会议上的一篇论文,名称为《Curved-Voxel Clustering for Accurate Segmentation of 3D LiDAR Point Clouds with Real-Time Performance》 与...

空空如也

空空如也

1 2 3 4 5 ... 15
收藏数 298
精华内容 119
关键字:

无人驾驶论文