精华内容
下载资源
问答
  • 大疆无人机实现目标定位

    千次阅读 2020-12-20 10:13:07
    大疆无人机实现目标定位 大疆无人机回传的实时视频可以帮助飞友观察发现美景,就称为目标吧,你偏偏对目标很感兴趣,迫切想知道目标的位置,最好是经纬度坐标。你查找大疆Document,欣喜地发现大疆提供了定位机体...

    大疆无人机实现目标定位

    大疆无人机回传的实时视频可以帮助飞友观察发现美景,就称为目标吧,你偏偏对目标很感兴趣,迫切想知道目标的位置,最好是经纬度坐标。你查找大疆Document,欣喜地发现大疆提供了定位机体本身的定位方法(通过FlightController.setStateCallback重写Update函数即可),不过并没有定位目标的现成函数。
    实际上,屏幕上的像素与实地坐标存在一一对应的关系,找到这个关系就能实现实地目标的定位。
    建模条件:①地面为水平平面;②相机视角θ(大疆X3为94度);③飞机相对高度droneHeight,经纬度(droneLat,droneLng),机头朝向droneHeading;④屏幕分辨率deviceWidth、deviceHeight;⑤屏幕以左上角为原点(0,0),向右向下为正;⑥相机垂直地面;⑦不考虑目标的高度和图像形变。
    在这里插入图片描述

    则任意屏幕的像素点(x,y),对应的实地经纬度坐标为唯一的,假设为(xLng,yLat),从而可以用大疆SDK提供的函数在地图中标定。
    基于上述模型,得到从像素点到实地位置的计算过程:
    1、根据飞机高度和相机视角,计算屏幕中的图像对应实地的长度(Height1)和宽度(Width1):
    Width1=droneHeighttan(Θ/2)
    Height1=deviceHeight
    Width1/deviceWidth;
    2、计算目标像素在屏幕中相对于屏幕中心点的归一化位置(tmpX ,tmpY),其中tmpX = droneHeightx2/Width1, tmpY = -y/x*tmpX;

    3、根据飞机当前位置和机头方向,解算实地的顶点坐标:
    xLng=droneLng+(tmpXcos(droneHeading)- tmpYsin(droneHeading))M_TO_LAT;
    yLat=droneLat+(tmpY
    cos(droneHeading)+ tmpX*.sin(droneHeading))*M_TO_LAT;
    以上可以计算屏幕像素与实地经纬度的一一对应关系。
    实现函数也很简单:

    private DJILatLng calcTargetLatLng(LocationCoordinate3D drone3D, PointF pointF,int droneHeading){
    final double M_TO_LAT = 360.0/40000000;
            DJILatLng targetLatLng = new DJILatLng(0.0,0.0);
            double tmpX,tmpY;
            double Theta = -droneHeading*Math.PI/180;
            double Height =  drone3D.getAltitude();
            tmpX = Height*pointF.x*2/deviceWidth;
            tmpY = -pointF.y/pointF.x*tmpX;
            targetLatLng.longitude = drone3D.getLongitude() + (tmpX*Math.cos(Theta) - tmpY*Math.sin(Theta))*M_TO_LAT;
            targetLatLng.latitude  = drone3D.getLatitude() + (tmpY*Math.cos(Theta) + tmpX*Math.sin(Theta))*M_TO_LAT;
    
            return targetLatLng;
        }
    

    参数说明:drone3D是飞机的高度、经度、纬度信息,droneHeading是机头朝向,以上两个参数均可以通过在OnCreate函数中,用FlightController.setStateCallback重写Update函数得到;pointF是目标像素点的位置,通过点击屏幕获取。
    如果需要,可以通过DJIMap.addMarker将目标标定到地图中。测试效果,飞机在100米高度,有可能把机动车道标记到慢车道,这个误差可以接受。

    展开全文
  • 编译 |VincentLee来源 |晓飞的算法工程笔记导读:论文提出伪监督目标定位方法(PSOL)来解决目前弱监督目标定位方法的问题,该方法将定位与分类分开成两个独立的网络,然后在训...

    编译 | VincentLee

    来源 | 晓飞的算法工程笔记

    导读:论文提出伪监督目标定位方法(PSOL)来解决目前弱监督目标定位方法的问题,该方法将定位与分类分开成两个独立的网络,然后在训练集上使用Deep descriptor transformation(DDT)生成伪GT进行训练,整体效果达到SOTA,论文化繁为简,值得学习。

    由于训练数据难以大量标注,一些研究如何使用弱监督的方法来学习,弱监督的训练数据一般只包含image-level标签,无具体目标的定位标签/语义标签。在弱监督算法中,弱监督目标定位(WSOL)是最实际的任务,只需要定位给定标签的对象位置即可。

    经过实验,论文认为WSOL中的定位部分应该为类不可知的,与分类无关。基于这个观察,将WSOL分为类不可知目标定位以及目标分类两部分,如图1所示,命名为伪监督目标定位(Pseudo Supervised Object Localization, PSOL)。算法首先生成通过Deep descriptor transformation(DDT)生成伪监督GT bbox,然后对这些bbox进行回归,去掉了WSOL中仅能有一层全连接的限制(当作卷积的channel-wise权重)以及定位与分类耦合导致的取舍问题。

    论文贡献主要如下:

    • 弱监督目标定位应该分为类不可知目标定位和目标分类两个独立的部分,提出PSOL算法

    • 尽管生成的bbox有偏差,论文仍然认为应该直接优化他们而不需要类标签,最终达到SOTA

    • 在不同的数据集上,PSOL算法不需要fine-tuning也能有很好的定位迁移能力

    这里需要说明一下,弱监督目标定位(WSOL)与弱监督目标检测(WSOD)是不一样的,WSOL假设图片中只有一个目标,而WSOD则没有这种假设,所以WSOD一般需要额外的方法去生成region proposal。

    方法论

    A paradigm shift from WSOL to PSOL

      当前WSOL能够生成生成带类别标签的bbox,但主要有以下几个问题:

    • 学习目标不明确,导致定位任务性能下降。独立的CNN不能同时进行定位和分类任务,因为定位需要目标的全局特征,而分类只需要目标的局部特征

    • CAM(Class Activation Mapping)存储一个三维特征图用于计算类别的heatmap,再用阈值过滤,但是一般阈值十分难确定

    受selective search和Faster-RCNN的类不可知过程的启发,将WSOL分成两个子任务,类不可知的目标定位任务和目标分类任务,提出PSOL,直接通过伪GT bbox进行模型更新,不需要直接生成bbox,能够显著解决前面提到的问题。

    The PSOL Method

    Bounding Box Generation

    PSOL与WSOL的区别在于给无标签的训练图片产生伪bbox,Detection是最好的选择,能够直接提供bbox和类别。但是最大的检测训练集才80类,不能提供通用的目标检测,而且目前的detector大都需要大量的计算资源和输入尺寸,导致不能在大规模数据集上使用。除了detection模型,可以尝试定位方法来直接产生训练图上的bbox

    1. WSOL methods

    首先通过预训练网络得到输入图片的最后卷积的特征图,然后通过全局池化和最终的全连接层得到最后的标签。根据,得到特定类别在最终全连接中的权重,对中的空间位置进行channel-wise的加权并求和得到特定类别的heatmap ,将上采样到原来的大小,使用阈值过滤在产生最终的bbox。

    1. DDT recap

    协同监督方法在定位任务中有较好的表现,DDT是其中表现好且计算量最少的。对于张相同标签图的集合,使用预训练模型得到最终的特征图,将这些特征图集合到一起得到大特征集。在深度上使用主成分分析(PCA),得到特征值最大的特征向量,然后对进行channel-wise的加权并求和得到最终的heatmap ,将上采样到原来的大小,然后进行零过滤以及最大连通区域分析得到bbox

    Localization Methods

    在生成bbox后,使用bbox回归进行精调,这里使用单类别回归(single-class regression, SCR)。假设bbox为为左上角坐标,为宽高,首先将值进行转换,其中为输入图片的宽和高。使用两个全连接层以及对应ReLU的子网来回归,最终的输出进行sigmoid激活,训练使用最小平方差。

    实验

    Experimental Setups

    • Datasets,使用ImageNet-1k和CUB-200,测试数据的bbox是准确标注的,而训练集上的bbox则通过前面提到的方法进行生成。

    • Metrics,验证3个指标:知道GT类别的定位准确率(GT-known Loc),当预测与GT的时正确;Top-1定位准确率(Top-1 Loc),Top-1的分类正确且GT-known Loc正确;Top-5定位准确率(Top-5 Loc),Top-5结果中存在分类正确且GT-known Loc正确。

    • Base Models,有VGG16/Inception V3/ResNet50/DenseNet161,没有增大图片输入,一些WSOL方法要用到类别信息的权重(单层全连接)来生成heatmap,而PSOL不用。为了公平起见,增加VGG-GAP,将所有全连接层换成单层全连接,而对于回归模型,仍然使用双层全连接层加对应的ReLU。

    • Joint and Separate Optimization,对于联合优化模型(-Joint),在原来的基础上加入bbox回归分支,然后同时训练模型的分类和定位。对于独立优化模型(-Sep),单独训练两个模型。

    结果和分析


    Ablation Studies on How to Generate Pseudo Bounding Boxes

    在验证集上对比了不同算法生成伪GT框的准确率,DDT-VGG16性能最优。

    Comparison with State-of-the-art Methods

    与SOTA对比并可视化结果后发现:

    • DDT本身就已经比WSOL方法要好,说明类不可知是有用的,WSOL应该分为两个独立的模型。

    • 所有PSOL方法分开训练都比联合训练要好,说明定位和分类学习到的内容不一样。

    • POSL在CUB-200上都具有较大的优势,由于类别相似度较大,类别标签不一定能帮助定位,反而协同定位的DDT更占优。

    • CNN有能力去处理有噪声的数据并且得到更高的准确率,PSOL模型的GT-Known Loc基本都比DDT-VGG16高。

    • WSOL里的一些约束没有带到PSOL中,例如只允许单层全连接层以及更大的输出特征图,去掉常见的三层全连接层会影响准确率,VGG-Full比VGG-GAP要好。还有WSOL方法在复杂的网络上效果不好,如DenseNet,主要由于DenseNet使用多层进行分类,不仅仅是最后一层,最后一层的语义不如VGG等明确,而PSOL-DenseNet则避免了这个问题,达到最高准确率。

    Transfer Ability on Localization

    PSOL不需要任何监督信息就很好的从ImageNet迁移到CUB-200,甚至比fine-tune的WSOL方法都好,证明目标定位与类别关联是没必要的。

    Combining with State-of-the-art Classification

    将分类部分的网络改为SOTA分类网络结合进行实验,PSOL性能依然比WSOL要好。

    Comparison with fully supervised methods

    对比监督方法,这里论文的描述不是很清楚,表中有监督的分类网络应该都是使用WSOL方法+定位LOSS。从结果来看,从ILSVRC直接迁移过来的Faster-RCNN-ensemble精度最高,region proposal网络不需要fine-tuning就具有更好的处理不同类别的通用能力,说明定位与分类是分开的。

    结论

    论文提出伪监督目标定位方法(PSOL)来解决目前弱监督目标定位方法存在的问题,该方法将定位与分类分开成两个独立的网络,然后在训练集上使用Deep descriptor transformation(DDT)生成伪GT进行训练,整体效果达到SOTA,论文化繁为简,值得学习

    论文地址:

    https://arxiv.org/abs/2002.11359

    【end】

    精彩推荐

    《原力计划【第二季】- 学习力挑战》正式开始!

    即日起至 3月21日千万流量支持原创作者更有专属【勋章】等你来挑战

    推荐阅读

      你点的每个“在看”,我都认真当成了AI

    展开全文
  • 目标定位和特征点检测

    千次阅读 2020-04-01 01:03:45
    目标检测是计算机视觉领域中的一个新兴的应用方向,在构建目标检测之前,我们首先了解一下object localization目标定位。 前面说过的图片分类任务就是算法遍历图片,判断其中的对象是不是汽车,主要是图片分类 ...

    1. 目标定位

    目标检测是计算机视觉领域中的一个新兴的应用方向,在构建目标检测之前,我们首先了解一下object localization目标定位。

    前面说过的图片分类任务就是算法遍历图片,判断其中的对象是不是汽车,主要是图片分类

    这里所说的目标定位指的是我们不仅要用算法判断图片中是不是一辆汽车,还要在图片中标记出它的位置,用边框或红色方框把目标 标注圈起来,这就是定位分类问题。其中定位的意思是 判断目标在图片中的具体位置。在目标检测问题中,图片可以包含有多个目标,甚至单张图片中会有多个不同分类的目标,因此图片分类的思路可以帮助学习分类定位,而目标定位的思路又有助于学习目标检测。

    一般的图片分类问题,我们输入一张图片到多层卷积神经网络中,它会输出一个特征向量,并反馈给softmax单元来预测图片类型。如果我们想定位图片中的目标具体的位置,我们可以让神经网络多输出几个单元,具体来说就是让神经网络再多输出4个数字标记为bx、by、bh、bw。这四个数字是被检测对象的边界框的参数化表示。

    (bx,by)表示为目标边界框的中心点坐标

    bh表示为边界框的高度

    bw表示为边界框的宽度

    因此,训练集不仅要包含神经网络要预测的对象分类标签,还要包含表示边界框的这四个数字。接着采用监督学习算法,输出一个分类标签,还有这四个参数值,从而给出被检测对象的边界框位置。

    2. 目标对象标签Y的定义

    如何为监督学习任务定义目标标签y?

    这里有四个分类,神经网络输出的是这四个数字和一个分类标签或分类标签出现的概率。

    目标标签Y的定义如下:

    它是一个向量,第一个组件Pc表示是否含有对象,如果对象属于前三类,则Pc=1,如果是background或者其他,则Pc=0,即图片中没有我们指定的对象。若我们检测到对象,则接下来会输出目标边界框的四个参数bx、by、bw、bh。如果存在某个目标对象,则除了输出Pc=1,边界框的四个参数,同时还会输出C1、C2、C3,表示该对象属于1~3中的哪一类,属于哪一类其对应的Cx就为1,其余为C为0。如果输入图片中没有以上的3中对象或者说只有背景时,那么Pc=0,那么标签Y中的其他参数将变得毫无意义,不要考虑边框坐标以及Cx的值。

    所以针对给定的被标记的训练样本,不论输入图片是否含有定位对象, 构建输入图片X和分类标签Y的具体过程都是如此,这些数据最终定义了训练集。

    训练神经网络的损失函数

    其参数为类别Y和网络输出\hat{Y},损失函数可以表示为L(\hat{Y},Y),如果采用平方误差策略,则

     {\color{Red} L(\hat{Y},Y)=(\hat{Y_{1}}-Y_{1})^2 + (\hat{Y_{2}}-Y_{2})^2 + (\hat{Y_{3}}-Y_{3})^2 + ... + (\hat{Y_{8}}-Y_{8})^2}

    注意,这里的Y含有8个元素,损失值等于每个元素相应差值的平方和。

    如果图片中存在定位对象,则Y_{1} = P_{c} = 1,损失值就是各个元素的平方和。

    另一种情况是 Y_{1} = 0,也就是 P_{c} = 0,那么损失值是(\hat{Y_{1}}-Y_{1})^2。因为对于此种情况,我们不用考虑其他元素,只需关注神经网络输出P_{c}的准确度。

     为了了解目标定位的细节,这里用平方误差简化了描述过程。实际应用中,你可以不用对C1、C2、C3和softmax激活函数应用 对数损失函数并输出其中一个元素值,通常做法是对边界框坐标应用平方误差或类似方法,对P_{c}应用逻辑回归函数,甚至采用平方预测误差也是可以的。

    3. 特征点检测

    我们可以采集人脸中的64个特征点并生成包含这些特征点的标签训练集,然后利用神经网络输出脸部关键特征点的位置。具体做法是:准备一个卷积网络和一些特征点的数据集,将人脸输入卷积网络,输出0或1,输出1表示有人脸,然后输出(l_{1}x,l_{1}y),(l_{2}x,l_{2}y)...(l_{64}x,l_{64}y)共64个特征点的坐标值,共129个输出单元,由此实现了对图片的人脸检测和定位;0表示无人脸,那么特征点坐标值数据便不再考虑了。这就是一个识别脸部表情的基本构造模块。

    为了构建这样的网络,我们首先需要准备一个标签的训练集,也就是图片X和标签Y的集合,这些特征点都是人为花费大量时间手工标注的。

    同样,如果我们做人体姿态检测,我们还可以在人体四肢各部位定义一些关键特征点,然后通过神经网络标注人物姿态的关键特征点,再输出这些标注过的特征点,就相当于输出了人物的姿态动作。当然,要实现这个功能,你需要设定这些关键特征点,从胸部中心点(l_{1}x,l_{1}y)一直到(l_{32}x,l_{32}y)共32个姿态特征点。

    展开全文
  • WSN目标定位算法

    千次阅读 2018-06-27 18:01:48
    1、二维目标定位算法 传感器观测信号(量测)是方位角β1,β2,为融合处理的状态参数是特定目标的位置 < div align=center> 目标点计算公式为: 2、三维目标定位算法 传感器观测信号...

    一、三角定位算法

    1、二维目标定位算法
    传感器观测信号(量测)是方位角β1,β2,为融合处理的状态参数是特定目标的位置
    这里写图片描述

    目标点计算公式为:
    这里写图片描述

    2、三维目标定位算法
    传感器观测信号是方位角βi ,俯仰角;为融合处理的状态参数是特定目标的位置;

    这里写图片描述

    目标点计算公式为:
    这里写图片描述

    二、多点定位算法

    传感器观测信号是到达时间ti,或到达时间差Δti;为融合处理的状态参数是特定目标的位置。
    这里写图片描述
    目标点计算公式:
    这里写图片描述

    三、总结

    这里写图片描述

    这里写图片描述

    展开全文
  • 一、目标定位

    千次阅读 2018-08-01 17:42:10
    1、目标定位是要求图像中只有一个目标,则构建这个目标的位置信息,如一个网络输出8个值,一个是是否有目标的pc,4个目标位置信息的bx,by,bh,bw,其中bx,by为目标中心点坐标,bh,bw为目标的高和宽,最后3项为目标的...
  • 目标定位:输出目标的确切位置(单个目标)   举个例子:检测画面中是否包含某个品牌LOGO,如果有就输出LOGO名称,如果没有就不输出。这是目标检测问题。要计算出图像中是否有目标,而不是计算出图像分类为什么。...
  • 目标检测(损失函数):目标定位损失—GIoU1、提出问题2、解决方案 CVPR 2019CVPR~2019CVPR 2019 有一篇介绍目标检测定位损失函数的 paperpaperpaper: 论文链接:Generalized Intersection over Union: A...
  • 人工智能专题-目标定位

    千次阅读 2018-01-28 12:58:58
    目标定位是图像处理或计算机视觉系统(如目标检测与分类,证件识别等)的第一步。任何计算机视觉系统都显性或隐性的包含着目标定位的步骤。目标定位的方法有传统方法和基于卷积神经网络的深度学习方法,本文主要讨论...
  • 目标检测之目标定位

    千次阅读 2020-09-08 19:41:22
    目标检测是计算机视觉领域中一个新兴的应用方向,相比前两年,它的性能越来越好。在构建对象检测之前,我们先了解一下对象定位,首先我们看看它的定义。 图片分类任务我们已经熟悉了,就是算法遍历图片,判断其中的...
  • 论文提出伪监督目标定位方法(PSOL)来解决目前弱监督目标定位方法的问题,该方法将定位与分类分开成两个独立的网络,然后在训练集上使用Deep descriptor transformation(DDT)生成伪GT进行训练,整体效果达到SOTA,论...
  • 基于halcon的目标定位与方向确定实例原图代码结果 原图 代码 dev_close_window () *读取图像 read_image (Image, 'E:/Halcon_Learn/定位方向_画箭头/clip.png') *获得图像尺寸 get_image_size (Image, Width, ...
  • 深度学习笔记(32) 目标定位

    万次阅读 2019-08-11 08:44:01
    定位分类、定位边框、分类标签、损失函数
  • 3.1目标定位 对象定位localization和目标检测detection 判断图像中的对象是不是汽车–Image classification 图像分类 不仅要判断图片中的物体还要在图片中标记出它的位置–Classification with localization...
  • 而在目标检测中目标定位则是非常重要的基础。 图片分类问题已经不陌生了 如图,输入一张图片到卷积神经网络中,最后我们会获得由softmax神经单元提供给我们的预测图片类型的概率。 如在一个自动驾驶...
  • 傅立叶变换之图像目标定位-matlab

    千次阅读 2019-07-29 22:47:05
    傅立叶变换中的目标定位 and 卷积应用中的目标特征识别 写这篇文章的感觉就是一句话:我想验证:**时域中的卷积操作等于频域中的乘积,也就是这个公式:f*g(x) = F(x)*G(x),**这句话。 直接上代码:每一行代码都有...
  • 这一篇在此基础上实现视频的图像处理,依旧是目标定位。 原理是选择合适的 HSV 阈值,选取特定颜色。当找到目标时,框选最大目标,并打印其中心位置。 代码如下: #!/usr/bin/env python3 # -*- coding:utf-8 -*- ...
  • 目标定位必须清楚,目标人群必须准确。我你把目标人群锁定在90后大学生。这是一个庞大的社会群体。其次,我们改变教育,拿什么去改变教育?也就是说,用什么手段去改变教育?教育的领域非常宽泛,我们无
  • 本范例的代码主要都是 学习OpenCV——通过KeyPoints进行目标定位这篇博客提供的,然后在它的基础上稍加修改,检测keypoints点的检测器是SURF,获取描述子也是用到SURF来描述,而用到的匹配器是FlannBased,匹配的...
  • 现在我们开始定位目标的坐标。 这个过程包括几个子部分: 1. 标记检测 2. 指定世界坐标系,求相机外参 3. 确定目标的坐标 相机姿态估计 Aruco Marker是一种特殊的二维码,来源于美国中央俄克拉荷马大学(UCO),...
  • 快速旋转匹配、缺陷检测、目标定位、模板配准算法接口 分类: 图像处理与计算机视觉的应用项目 2009-09-12 12:46 15745人阅读 评论(5) 收藏 举报 算法产品 流水线上的产品、零件有缺损、漏印、装配...
  • Python-opencv之目标定位

    万次阅读 2016-05-07 11:59:00
    最近团队准备参加一个无人机比赛,大致的规则是这样的:固定翼飞机从跑道起飞,然后在空中转体360°,通过GPS粗定位飞行至一个高13米左右,宽6米左右八字形框前(距离约50米左右),这时依靠计算机视觉的方法,让...
  • 目标定位和检测系列中IOU的含义

    万次阅读 2018-10-11 11:11:41
    交并比(Intersection over Union)和非极大值抑制是(Non-Maximum Suppression)是目标检测任务中非常重要的两个概念。例如在用训练好的模型进行测试时,网络会预测出一系列的候选框。这时候我们会用NMS来移除一些...
  • 最近开始学习深度学习中的定位和检测任务。本来打算直接看论文,却发现文章中的的很多基本概念都搞不清楚,于是就自己先...识别和定位:针对单个目标的任务,识别就是给定一张图片,要让计算机告诉你图片中是什么。而
  • 学习OpenCV——通过KeyPoints进行目标定位

    万次阅读 多人点赞 2014-02-26 20:21:15
    目前的AR应用基本都是基于marker的比较多,但是不依靠marker首先要完成的定位工作。这篇文章主要描述,...1. 目标图特征点检测和描述子计算; 2. 打开camera采集图像,并计算特征点及描述子; 3. 进行特征点匹配,采
  • 在这篇论文中,认为图片在经过卷积层的特征提取后,通过CAM,除了不弱的分类精度外,还能对分类的依据进行定位,相当于诠释网络是如何做出分类判断的。 CAM的核心部分如下图: 在卷积层之后,使用了
  • 目标定位 Object Localization 定位分类问题 :不仅要用算法判断图片中是不是一辆汽车,还要在图片中标记出它的位置,位置一般用**边框(bounding box)**标记。通常只有一个较大的对象位于图片中间位置,我们要对...
  • 从RCNN到SSD,这应该是最全的一份目标检测算法盘点 深度学习目标检测模型全面综述:Faster R-CNN、R-FCN和SSD 深度学习目标检测概览 干货 | 物体检测算法全概述:从传统检测方法到深度神经网络框架 基于...
  • 目标定位与检测系列(10):YOLOv3

    千次阅读 2019-05-28 19:38:03
    每一个尺度上都预测bbx位置信息(4个值)、包含目标的概率(1个值)和类别概率(C个值,C为类别数)。设anchor数量为A(每个位置预测A个bbx),所以,对于一个大小为N*N的特征图,最终预测得到的张量shape为N*N*[A*...
  • 了解博主更多项目查看 github:https://github.com/MichaelBeechan CSDN:https://blog.csdn.net/u011344545 ==================================================================== 代码下载:...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 444,565
精华内容 177,826
关键字:

目标定位