精华内容
下载资源
问答
  • 算法干货 | 点云物体识别大致流程

    千次阅读 2019-10-14 11:09:49
    点云物体识别前沿滤波采样特征向量提取匹配 作者:李工 前沿 点云物体识别,一般包括:采集数据点集合,即点云、点云滤波、采样、特征提取、特征匹配、识别与论断等若干步骤。 点云点云滤波采样特征提取特征匹配识别...


    来源于👉【 知屋安砖

    前沿

    点云物体识别,一般包括:采集数据点集合,即点云、点云滤波、采样、特征提取、特征匹配、识别与论断等若干步骤。

    点云
    点云滤波
    采样
    特征提取
    特征匹配
    识别
    论断

    滤波

    原始数据中,一般都包含噪音,需要进行去噪;
    一般用半径滤波、统计滤波等。半径滤波:就是搜寻给定半径R内的相邻点云个数,当个数少于给定阈值时,去除点云。 统计滤波:对每个点,进行邻域统计分析,依据统计数据,确定剔除或保留的样本点。

    采样

    点云一般个头都很大,数据量动辄若干G,有时达到T级别,数据中包含大量冗余,同时对程序速度、保存外存等都具有挑战性;为解决速度等问题,可以对滤波后的数据进采样处理;采样的原则是保证点云原始形态的边界分布,不能破坏边缘信息,要求达到边缘保留Edge-preserving)。

    特征向量提取

    采样后的点云数据,对每个点,进行特征提取,常用的提取算子有SHOT(signature histogram of orientation)、FPFH(Fast Point of Histogram)等。

    匹配

    对特征点进行匹配,形成对应关系,由匹配点对,进而计算匹配的相似度,达到对识别的论断。
    在这里插入图片描述

    展开全文
  • PointPillars:点云物体识别的快速编码

    千次阅读 2020-05-13 07:00:00
    其实投影到二维的做点云物体识别的网络很多(例如 RT3D:自动驾驶中利用3D点云实时车辆识别), 这篇文章的主要贡献在于 "Fast Encoder", 也就是将点云稠密的Pillar(上文提到2847个)输入给网络, 很多博客都没提到这...

    点击上方“3D视觉工坊”,选择“星标”

    干货第一时间送达

    作者:Panzerfahrer

    链接:https://zhuanlan.zhihu.com/p/107975261

    本文转载自知乎,作者已授权,未经许可请勿二次转载。

    0. 前言

    虽然论文已经发表一年多了, 截止目前 (2020.04.18) pointpillar 依旧是kitti排行榜上速度最快的"男人", 而且有着不错的AP结果,出自安波福,是为数不多可以应用在自动驾驶领域的模型.

    论文链接:https://arxiv.org/pdf/1812.05784.pdf

    代码链接:https://github.com/nutonomy/second.pytorch

    pytorch->onnx->tensorrt 工具链:https://github.com/SmallMunich/nutonomy_pointpillars

    1. 介绍

    首先说应用深度学习在点云上做object detection的两个思路, 一个是3D卷积, VoxelNet是第一个endtoend的网络, 后来SECOND对此作了改进, 但是仍然3D卷积的瓶颈依旧明显; 另一个是投影到BEV (Bird's Eye View)像图像做二维卷积, 第二种方法虽然时间更快, 但是点云的稀疏性让卷积的不实用,效率很低, 所就用了 Fast Encoder, 简单来说就是对点云密度比较高的地方进行卷积, 速度提升还是很明显的.

    2. 网络架构

    2.1 Pillar Feature Network

    对于识别Car而言, 识别范围为 前后左右上下[(0, 70.4), (-40, 40), (-3, 1)], 将点云投影到二维栅格中, 每个Pillar (栅格柱子) 的大小为 0.16*0.16, 可以理解为图像里的一个像素, 那么伪图像的尺寸就是 440*500. Pillar中的每个点特征D长度9, D=[x, y, z, r, x_c, y_c, z_c, x_p, y_p], 其中r代表intensity/reflection, [x_c, y_c, z_c] 代表Pillar中所有点的质心坐标, [ x_p, y_p] 代笔质心和Pillar几何中心的偏移.

    因为~97% 的Pillar都很稀疏, 所以需要筛选出稠密(dense)的Pillar做卷积, 如上图所示, 选出的 Stacked Pillars的尺度为(D, P, N) 分别代表特长度D=9, Pillar的个数P=2847(假设), 点的数量N=100(假设), 这里用了一个简单的PointNet, 之后接了一个BN和一个ReLU得到尺度为(C, P, N) 的Tensor, 这里特征C的长度为64,然后经过max操作得到尺寸为(C, P)的Tensor, 然后在反投影回伪图像上, 因为反投影的Pillar个数只有2847, 剩下的将被填充为0.

    2.2 Backbone& Detection Head

    下图是BackBone和RPN的结合, 论文用的是SSD, 但实际用的是RPN.

    3. Loss Function

    Loss分为三部分, 定位Loss, 方向Loss 和分类Loss:

    这里提一句, Pointpillar 可以识别朝向,也就是会做是否旋转180°的处理。

    总结与思考

    1. 其实投影到二维的做点云物体识别的网络很多(例如 RT3D:自动驾驶中利用3D点云实时车辆识别), 这篇文章的主要贡献在于 "Fast Encoder", 也就是将点云稠密的Pillar(上文提到2847个)输入给网络, 很多博客都没提到这一点,我觉得这才是这篇论文的精髓所在, 这大大提升了识别速度, 论文写可以达到62Hz.

    2. 虽然速度快但是也有缺点,首先网络的输入只是部分"稠密"的Pillar这必将略微降低识别效果; 另外因为网络中训练不同种类时使用的卷积stride和Anchor的尺寸不一样, 导致多分类的效果不理想.

    推荐阅读:

    吐血整理|3D视觉系统化学习路线

    那些精贵的3D视觉系统学习资源总结(附书籍、网址与视频教程)

    超全的3D视觉数据集汇总

    大盘点|6D姿态估计算法汇总(上)

    大盘点|6D姿态估计算法汇总(下)

    机器人抓取汇总|涉及目标检测、分割、姿态识别、抓取点检测、路径规划

    汇总|3D点云目标检测算法

    汇总|3D人脸重建算法

    那些年,我们一起刷过的计算机视觉比赛

    总结|深度学习实现缺陷检测

    深度学习在3-D环境重建中的应用

    汇总|医学图像分析领域论文

    大盘点|OCR算法汇总

    重磅!3DCVer-学术论文写作投稿 交流群已成立

    扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会(ICRA/IROS/ROBIO/CVPR/ICCV/ECCV等)、顶刊(IJCV/TPAMI/TIP等)、SCI、EI等写作与投稿事宜。

    同时也可申请加入我们的细分方向交流群,目前主要有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流等微信群,请扫描下面微信号加群,备注:”研究方向+学校/公司+昵称“,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进去相关微信群。原创投稿也请联系。

    ▲长按加微信群或投稿

    ▲长按关注公众号

    3D视觉从入门到精通知识星球:针对3D视觉领域的知识点汇总、入门进阶学习路线、最新paper分享、疑问解答四个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近1000+星球成员为创造更好的AI世界共同进步,知识星球入口:

    学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

     圈里有高质量教程资料、可答疑解惑、助你高效解决问题

    展开全文
  • 随着三维扫描技术的快速发展,获取各类场景的点云数据已经非常简单快捷;加之点云数据具备不受光照、 阴影、纹理的影响等优势,基于点云的三维物体识别已...最后,指出点云物体识别中所面临 的挑战及进一步的研究方向。
  • 3D点云目标识别和抓取

    千次阅读 2018-11-25 23:02:00
    这是2016年一个点云目标识别研究的简单描述。 1、点云目标识别流程 点云目标识别,顾名思义,需要有标准的目标点云或者标准的点云特征描述向量;对实时采集的点云数据,在里面寻找与目标点云相似度最高的点云块。 ...

    这是2016年一个点云目标识别研究的简单描述。

    1、点云目标识别流程

    点云目标识别,顾名思义,需要有标准的目标点云或者标准的点云特征描述向量;对实时采集的点云数据,在里面寻找与目标点云相似度最高的点云块。

     

    2、圆环工件的识别和抓取

    图2.1 点云在XY平面的投影图像

    图2.2 圆环点云采集图像

    2.1滤波

    常用点云滤波有带通滤波、统计滤波、半径滤波、去除背景平面、去除边缘。

    带通滤波:就是设置一个x、y、z方向的一个取值范围,以过滤掉明显不在测试距离范围的点云;比如在kinect数据采集中,由于其成像范围Z轴方向比较大,因此会出现很多明显我们不需要的背景噪声信息,这是可以设置一个合理的Z坐标阈值;

    半径滤波:就是搜寻给定半径R内的相邻点云个数,当个数少于给定阈值时,去除点云;主要用在去除孤立点;

     统计滤波:对每个点,计算最近邻K个点云距离的均值;假设最近邻距离均值符合高斯分布,则剔除距离在一个sigma外的点云;主要用于去除不合群离散点。

    去除背景平面:对放在平面上的物体,背景通常会有一个较大的平面;采用Ransac拟合平面,剔除平面。

     

    图2.3 统计滤波阈值选取方式 

    图2.4 圆环滤波后

    2.2降采样

    三维点云数据一般数据量都很大,为了提高程序的速度,可以对滤波后的数据进行降采样;降采样的原则是保证点云的整体分布情况,又不能破坏边缘信息(类似于图像处理的边缘保留Edge-preserving)。均匀降采样使用体素格的重心来表示给定半径范围内点的整体信息,来实现降采样和滤波的目的。

    图2.5 体素格降采样

    图2.6 单一圆环体素格降采样(蓝色是原始点云数据,红色是降采样数据)

    2.3 点云分割

    通过滤波后,点云被分成了很多基本不相邻的块,可以采用聚类的方法来进行分割(类似于二维图像的连通域标记)。

    图2.7 点云分割 

    2.4 特征向量计算和匹配

    当数据量不大的时候,可以直接计算降采样数据的特征向量;数据量很大时,最好先计算特征点(满足旋转、平移、尺度、仿射不变性),然后计算特征点处的特征向量。

    类似于二维图像,3d点云也可以计算每个点的特征,常用的特征描述子有SHOT(signature histogram of orientation)、FPFH(Fast Point of Histogram)等;

    匹配找到对应特征点对后,存在很多误匹配特征点对,需要采用Ransac对点对进行提纯,找到内点Inliners,采用ICP方法计算点对之间的旋转变换关系;

    图2.8 识别的圆环(蓝色点是原始的圆环数据,红色的是识别后经过旋转、平移变化的圆环)

    视频信息已经上传Youtube,附网址:

    机器人抓取视频 https://www.youtube.com/watch?v=9UaWKWEigXo&feature=youtu.be

    转载于:https://www.cnblogs.com/BellaVita/p/9979185.html

    展开全文
  • 点云物体检测简介

    千次阅读 2020-04-09 19:00:00
    自那之后,深度学习被应用在图像研究领域的各个方面,包括物体识别,物体检测,图像语义分割,甚至可以用深度学习产生一段描述图片内容的文字,还有最近比较火热的fake face等等。深度学习在图像领域的应用可谓是...

    点击上方“3D视觉工坊”,选择“星标”

    干货第一时间送达

    本文由知乎作者Leon Wu授权转载,不得擅自二次转载。原文链接:https://zhuanlan.zhihu.com/p/81474133

    深度学习的开始

    人类的大脑是一个神秘的器官,它由无数的神经细胞组成,神经细胞又有突触,轴突,树突等组成,至今我们还未对大脑如何工作研究的十分清楚。1943年,美国数学家沃尔特·皮茨(W.Pitts)和心理学家沃伦·麦克洛克(W.McCulloch)在发表论文《神经活动中内在思想的逻辑演算》中,提出了MP模型。MP模型是模仿神经元的结构和工作原理,构成出的一个基于神经网络的数学模型,本质上是一种“模拟人类大脑”的神经元模型。MP模型作为人工神经网络的起源,开创了人工神经网络的新时代,也奠定了神经网络模型的基础。

    深度学习是人类研究人工神经网络的一个重要的阶段,几乎代表了现代人工智能领域。深度学习的发展离不开三位大师级别的人物。1998年,燕·勒存(Y. LeCun)提出了深度学习常用模型之一卷积神经网络(Convoluted Neural Network, CNN)。2006年,杰弗里·辛顿(G. Hinton)提出了深度学习的概念,随后与其团队在文章《A fast Learning Algorithm for Deep Belief Nets》中提出了深度学习模型之一,深度信念网络,并给出了一种高效的半监督算法:逐层贪心算法,来训练深度信念网络的参数,打破了长期以来深度网络难以训练的僵局[5,6]。从此,深度学习的大门打开,在各大政府、高校和企业中掀起了研究深度学习的大浪潮。2009年,Yoshua Bengio提出了深度学习另一常用模型:堆叠自动编码器(Stacked Auto-Encoder,SAE),采用自动编码器来代替深度信念网络的基本单元:限制玻尔兹曼机,来构造深度网络。这三位正是2019图灵奖的获得者。

    2012年,在著名的ImageNet图像识别大赛中,杰弗里·辛顿领导的小组采用深度学习模型AlexNet一举夺冠。AlexNet采用ReLU激活函数,从根本上解决了梯度消失问题,并采用GPU极大的提高了模型的运算速度。同年,由斯坦福大学著名的吴恩达教授和世界顶尖计算机专家Jeff Dean共同主导的深度神经网络——DNN技术在图像识别领域取得了惊人的成绩,在ImageNet评测中成功的把错误率从26%降低到了15%。深度学习算法在世界大赛的脱颖而出,也再一次吸引了学术界和工业界对于深度学习领域的关注,深度学习的发展迎来了一波热潮。

    自那之后,深度学习被应用在图像研究领域的各个方面,包括物体识别,物体检测,图像语义分割,甚至可以用深度学习产生一段描述图片内容的文字,还有最近比较火热的fake face等等。深度学习在图像领域的应用可谓是五花八门,非常有趣。但总体上如下图所示都将图像作为输入,传给卷积神经网络模型,最后输出结构,然后再根据特定的任务解析出想要的结果。下图分别是物体检测和物体实例分割的示例。

    自动驾驶中的特别之处

    自动驾驶离技术中的重要一方面是车队周围环境的感知技术。无人车上通常都安装有多种能够感知周围环境的传感器,摄像头,激光雷达等。通过深度学习算法我们自然可以通过摄像头检测出图像中的行人,车辆等动态的物体,但是物体相对车的距离是无法获取的,或者及时获取到了,也不是非常精准的。要做安全的自动驾驶,就必须检测到周围在移动的物体,并且准确的知道它们相对于车的距离。因此2D的物体识别是不能够满足自动驾驶感知的要求的。激光雷达不同于Camera,它通过发射激光光束来探测目标,并通过搜集反射回来的光束来形成点云和获取数据,这些数据经光电处理后可生成为精确的三维立体图像。通常一帧点云数据,包含有上万个离散的点,这些点由lidar坐标系下的三维坐标唯一确定。我们需要利用点云数据,获得行人,车辆的三维立体框。这就是基于激光雷达的3D物体检测技术。下图中左图【2】是三维框在点云中显示的效果,右图【3】则是俯视图和图像中三维框的显示效果。

    Lidar 3D 物体检测的难点

    卷积神经网络(CNN)是专为图像输入而设计的深度神经网络。它能够接受W*H*C 大小的Tensor作为输入,通常图像的c是1或者3,也可以是其它。而点云是一个N*4的Tensor,这里的N是指点云中包含点的个数,4通常分别是lidar坐标系下点的x,y, z和一个反射率r。如果想利用成熟的CNN对点云数据进行处理,我们需要将N*4的点云Tensor进行处理得到W*H*C的输入tensor,这个输入tensor应尽可能多的包含点云tensor的信息。

    从N*4 到W*H*C的转换通常有两种方式:

    1、将点云数据投影到图像平面上,图像中的每个点的数值能够反应对应的点云点的深度信息下图中的左图【1】就是一张点云转换后的深度图像和对齐的RGB图像,他们组合在一起可以作为RGB-D图像作为输入给CNN模型,右图【4】利用图像不同的通道存储点云不同的信息。

    2、更为普遍的是这种将点云空间平均分割成相同大小的voxel,再对每个voxel提取同样维度信息的方法【5】【6】【7】【8】。这种方式将我们感兴趣的点云空间区域,Rw*Rh*Rd 的区域切割成W*H*D 个Vw*Vh*Vd的voxel。然后在每个voxel对局部区域的点云提取信息。虽然每个voxel中点的数量并不相同,但是可以通过max pooling 或者fc层,将其中包含点的feature映射成一个向量。最后每个voxel都有一个1*C的向量描述,这样整个点云空间就可转化成W*H*D*C的Tensor作为CNN的输入。下图分别是Voxel的示例图,和对voxel提取特征表示的过程。

    点云检测的另一个难点是对小物体的精度不高,这是因为远处点云的稀疏性造成的。由于激光是辐射出去,距离越远的物体反射回来的射线必然越稀少,因此造成远处物体漏检或者误检等情况。通常的解决办法是将点云数据与图像进行融合,利用图像提供更多更丰富的信息用于模型的训练。融合一般也分为两种,前融合和后融合。前融合是指将图像和点云数据合并成一个Tensor,输入给模型进行训练,最后得到物体检测的结果,而后融合则是图像和点云分别进行卷积提取特征,最后在两方面融合后的特征的基础上回归出物体三维框。

    参考文献

    1. Qi, Charles R., et al. "Frustum pointnets for 3d object detection from rgb-d data." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018.

    2. Chen, Xiaozhi, et al. "Multi-view 3d object detection network for autonomous driving." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017.

    3. Lang, Alex H., et al. "PointPillars: Fast encoders for object detection from point clouds." arXiv preprint arXiv:1812.05784(2018).

    4. Wu, Bichen, et al. "Squeezeseg: Convolutional neural nets with recurrent crf for real-time road-object segmentation from 3d lidar point cloud." 2018 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2018.

    5. Zhou, Yin, and Oncel Tuzel. "Voxelnet: End-to-end learning for point cloud based 3d object detection." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018.

    6. Yang, Bin, Wenjie Luo, and Raquel Urtasun. "Pixor: Real-time 3d object detection from point clouds." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018.

    7. Yan, Yan, Yuxing Mao, and Bo Li. "Second: Sparsely embedded convolutional detection." Sensors 18.10 (2018): 3337.

    8. Lang, Alex H., et al. "PointPillars: Fast encoders for object detection from point clouds." arXiv preprint arXiv:1812.05784(2018).

    上述内容,如有侵犯版权,请联系作者,会自行删文。

    推荐阅读:

    吐血整理|3D视觉系统化学习路线

    那些精贵的3D视觉系统学习资源总结(附书籍、网址与视频教程)

    超全的3D视觉数据集汇总

    大盘点|6D姿态估计算法汇总(上)

    大盘点|6D姿态估计算法汇总(下)

    机器人抓取汇总|涉及目标检测、分割、姿态识别、抓取点检测、路径规划

    汇总|3D点云目标检测算法

    汇总|3D人脸重建算法

    那些年,我们一起刷过的计算机视觉比赛

    总结|深度学习实现缺陷检测

    深度学习在3-D环境重建中的应用

    汇总|医学图像分析领域论文

    大盘点|OCR算法汇总

    重磅!3DCVer-知识星球和学术交流群已成立

    3D视觉从入门到精通知识星球:针对3D视觉领域的知识点汇总、入门进阶学习路线、最新paper分享、疑问解答四个方面进行深耕,更有各类大厂的算法工程人员进行技术指导,800+的星球成员为创造更好的AI世界共同进步,知识星球入口:

    学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

     圈里有高质量教程资料、可答疑解惑、助你高效解决问题

    欢迎加入我们公众号读者群一起和同行交流,目前有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流等微信群,请扫描下面微信号加群,备注:”研究方向+学校/公司+昵称“,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进去相关微信群。原创投稿也请联系。

    ▲长按加群或投稿

    展开全文
  • 物体识别用的到的单个物体点云,都已经分割完全,有多个种类,适合新手进行算法验证
  • 新一代3D传感技术 一个宽视场的3D传感器 实时三维视频 三维人脸识别系统的新一代3D传感技术 3D扫描技术使用结构光的方法可以快速准确地采集物体表面深度的三维模型 获取的三维数据通过一个特殊的光图案网格投影到...
  • 这里对基于激光点云物体分类常见特征做一下归纳整理。方便进一步学习,以及后续论文的写作。 一、对点云特征的要求 理想情况下相同或相似表面上的点的特征值将非常相似(相对特定度量准则〉,而不同表面上的点的...
  • 机器学习在基于点云的三维物体识别领域的研究综述.pdf
  • 基于全卷积神经网络实现3D物体识别一、从2D图像识别到3D物体识别二、ModelNet10:3D CAD数据集1.存储格式2....本文将围绕3D点云物体识别展开叙述。 一、从2D图像识别到3D物体识别 二维图像是由一个个像
  • RGBD物体识别(2)--点云分割

    万次阅读 热门讨论 2016-03-24 01:49:32
    对于RGBD物体识别问题,我采用的思路是先从几何特征,将物体的点云分割好,也就是将不同物体通过点云分割出来,然后通过成像关系和RGBD配准信息,在图像上找到对应的区域ROI,然后对图像进行识别,后续根据识别结果...
  • 同时也可申请加入我们的细分方向交流群,目前主要有3D视觉、CV&深度学习、SLAM、三维重建、点云后处理、自动驾驶、多传感器融合、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪...
  • 【深度学习系列】Voxnet论文阅读笔记 及代码...实验室研究的是点云相关,分给我的任务是激光点云的目标识别,所以之前也读了不少论文,这些阅读笔记都是之前写的,可以用来提炼重点,记录下重要的东西,那就先从Voxv
  • 基于深度学习的三维点云识别

    万次阅读 多人点赞 2018-10-10 10:23:34
    一、什么是三维物体识别 ​ 随着三维成像技术的发展,结构光测量、激光扫描、ToF等技术趋于成熟,物体表面的三维坐标能够精准而快速的获取,从而生成场景的三维数据,能够更好地感知和理解周围环境。三维数据包含了...
  • 3D点云目标的识别与抓取

    千次阅读 2020-08-21 16:49:27
    这是2016年一个点云目标识别研究的简单描述。 1、点云目标识别流程 点云目标识别,顾名思义,需要有标准的目标点云或者标准的点云特征描述向量;对实时采集的点云数据,在里面寻找与目标点云相似度最高的点云块。 &...
  • 【毕业课题学习】6DOF物体识别及抓取-PCL点云处理 直接进入正题,上接讲到PCL官网的有物体识别相关的教程,那就直接剖析这个recognition识别教程,看看是不是我们所需要的内容。 进入Recognition栏中的3D Object ...
  • 【毕设题目学习】6DOF物体识别及抓取-PCL点云处理 转眼来到毕业季,又恰逢武汉疫情,实在家里闲的慌,便开始着手毕设的题目 废话不多说,闲的时候,我将陆续写写博客,来记录关于该课题的一些学习记录,分享过程中...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 5,346
精华内容 2,138
关键字:

点云物体识别