精华内容
下载资源
问答
  • 下面是我最近看一些论文论文主要是关于:1、利用LDA进行社交网络用户推荐;2、BPR一些改进算法;3、MF一些改进算法 每一篇论文都用一页PPT来进行总结,总结很简单,所以在每一页PPT下面加上了想表达...

    写在前面

    • 下面是我最近看的一些论文,论文主要是关于:1、利用LDA进行社交网络的用户推荐;2、BPR的一些改进算法;3、MF的一些改进算法
    • 每一篇论文都用一页PPT来进行总结,总结的很简单,所以在每一页PPT下面加上了想表达的备注。(本来是准备和导师讲的,但是导师没空,所以想说还是把内容总结出来吧,不然过段时间就忘了~)
    • 完整的PPT可以在文末找到下载链接~

    P1

    在这里插入图片描述

    • 这一页是目录,是我下面要讲的所有论文里面提出的方法名称的简写。

    P2

    Blei D M, Ng A Y, Jordan M I. Latent dirichlet allocation[J]. Journal of machine Learning research, 2003, 3(Jan): 993-1022.
    在这里插入图片描述

    • Latent dirichlet allocation 是发表于2003年的一篇非常经典的工作,该方法名称可以简写为LDA,当然我这里看这一篇论文不是为了学习LDA,而是为了想要研究下LDA是如何用于社交网络的用户推荐任务上。
    • 我们知道LDA可以用来对文档进行主题挖掘,他原始的假设就是如果一个作者要写一篇文章,那么作者首先会去确定一下这篇文章的一个或者几个主题,然后才会去写文章。同样的,对于社交网络来说,用户A关注用户B可能也是因为某一种主题兴趣才会去关注。这个时候,我们是否可以把用户A的所有关注者们当成一篇文档向量来进行表示,进而挖掘出用户A关注的那些用户的兴趣主题分布是什么,同时我们是否可以利用LDA来得到兴趣主题分布下有哪些被关注者呢?答案是可以的!这两个分布我们都可以得到!依此,我们可以计算出用户A可能会关注其他用户的一个概率值,选择概率得分最高的几个用户来对用户A进行一个社交网络用户的TOPN推荐工作。
    • 类似的,LDA用于用户推荐的工作都可以分为两个步骤,一个是主题挖掘,一个是用户推荐

    P3

    Cha Y, Cho J. Social-network analysis using topic models[C]//Proceedings of the 35th international ACM SIGIR conference on Research and development in information retrieval. ACM, 2012: 565-574.
    在这里插入图片描述

    • 这是2012年发表在SIGIR的一篇工作。它将社交网络融于主题模型中,与我上一页PPT提及的原因一致,都是为了挖掘用户的关注者们的一个兴趣主题分布。与前面做法不同的是,原始LDA对文档进行主题挖掘是利用文档的词袋模型进行训练的,但是在训练之前一般都会进行一个去除停用词或者高频词的操作,因为这些词如果不去除的话,则很有可能会属于多个主题,从而导致得到的主题分布有噪音。
    • 所以如果我们把用户的所有关注者都变成一篇文档表示,我们是否要去除出现次数很高的被关注者呢?答案是否定的!被关注者在所有的关注者的列表中出现次数很高,这恰恰代表这个用户被很多人喜欢,这个用户是符合大家兴趣的,这个用户是有一定影响力的啊!但是如果不删除这种出现高频次数的被关注者的话,最后得到的关于关注者的主题分布确实会产生一定的噪音,这个时候这种被关注者会被划分到很多主题中去,这并不是我们想要得到的结果。
    • 这个问题是本篇论文作者所想要解决的问题,针对这个问题,作者也给出了自己的答案。即把这一批高频的被关注者‘挑出来’,另外形成一个文档表示,然后剩下的也形成一个文档表示,对这两部分文档分别进行LDA训练。这也就是PPT里显示的Two-step Labeling的方法。至于Threshold Noise Filtering是指针对高频关注者最后得到的一个兴趣主题下的用户分布指定一个阈值,在阈值以下的用户则会被剔除掉。

    P4

    Xu K, Cai Y, Min H, et al. UIS-LDA: a user recommendation based on social connections and interests of users in uni-directional social networks[C]//Proceedings of the International Conference on Web Intelligence. ACM, 2017: 260-265.
    在这里插入图片描述

    • UIS-LDA是实验室老师的一篇工作,她提出在单向社交网络中用户关注另一个用户,并不仅仅只是因为兴趣的原因,还有可能是因为社交关系的原因,一般来说,在线下互相认识的朋友会倾向于在线上也成为朋友。所以对于单向关注来说,有极大的可能性是因为兴趣的原因,对于双向关注来说,有极大的可能性是因为社交的原因。
    • 而如果只使用原始的LDA进行训练去得到所有用户关注者的一个兴趣主题分布的话,得到的主题分布会比较的粗糙!最后用户的推荐效果可能也会稍差!
    • 所以作者在原始的LDA上进行了一些改进,改进的地方除了使用开关控制基于单向社交关系得到兴趣主题分布,基于双向社交关系得到社交主题分布,还包括改进了采样部分,作者在采样的部分加入了GPU操作。
    • 我们都知道在原始的LDA训练过程中,训练时会不断的对第 i 篇文章的第 j 个词进行主题赋值,那么在用户的关注者组成的文档中,对第 i 个用户的第 j 个关注者进行主题赋值的时候,如果发现 i 用户和 j 用户是双向关注的关系,则我们可以同时对第 j 篇文档的第 i 个用户赋予相同主题更高的概率,也就是上面提到的GPU操作的大概意思。通过这样的方法我们可以得到兴趣主题分布和社交主题分布两种主题分布,利用这两种主题分布,即可以进行社交网络中的用户推荐工作。

    P5

    Koren Y, Bell R, Volinsky C. Matrix factorization techniques for recommender systems[J]. Computer, 2009 (8): 30-37.

    在这里插入图片描述

    • 这一篇文章是关于矩阵分解的一篇很经典的文章,发表在2009年,MF的提出是为了缓解用户物品矩阵的数据稀疏性以及为了提升推荐的准确性。
    • 该方法把用户物品评分矩阵拆解成两个矩阵,分别是用户矩阵P和物品矩阵Q。用户矩阵P中的每一行都是一个用户向量表示,物品矩阵Q中的每一列都是一个物品向量表示,我们使用得到的P中的第 i 行和Q中的第 j 列相乘可以得到用户 i 对物品 j 的一个预测评分值。
    • 在训练的时候,通过不断的缩小实际值与预测值的一个最小平方误差我们可以训练出最后的P和Q矩阵。

    P6

    Hu Y, Koren Y, Volinsky C. Collaborative filtering for implicit feedback datasets[C]//2008 Eighth IEEE International Conference on Data Mining. Ieee, 2008: 263-272.
    在这里插入图片描述

    • IF-MF这篇工作也是一篇非常经典的工作,是上一篇论文的同一个作者在ICDM上于2008年发表的。这一篇论文的提出主要是为了处理隐性反馈数据,隐性反馈数据在现实生活中其实是比显性反馈数据要多很多的,所以我们应该去充分的利用这份数据去进行推荐工作,但是目前来说,我们对于隐性反馈数据的利用率不是很高,主要是因为隐性反馈数据并不能和显性反馈数据一样去显性的表示出用户的偏好
    • 但是作者认为隐性反馈数据的数值大小多少能够反映出用户对物品的偏好,比如这篇论文中利用的数据集是作者爬取的一个关于用户看电视节目的这么一个隐性反馈数据集,按照现实的理解,如果数据显示用户观看某一个电视节目1-2次,那么有可能是因为用户喜欢这个电视节目,也很有可能只是因为用户换台的时候经过或者无聊的时候在这个电视节目上做了停留,我们确实不能从这份数据中获取到用户的一个偏好。但是若是用户观看某个电视节目10多次呢?这确实是能够充分体现出用户对这个电视节目的一个喜好程度的!
    • 基于此,作者提出了一个叫置信程度的东西,置信程度在这里用C_ui来表示。如果某一条隐性反馈数据能够反映用户偏好的话,则置信程度值会高,否则就会低,而这里的置信程度值完全和隐性反馈值是成正相关的~(正如上面的公式所示 ~)

    P7

    Zhao G, Lee M L, Hsu W, et al. Community-based user recommendation in uni-directional social networks[C]//Proceedings of the 22nd ACM international conference on Information & Knowledge Management. ACM, 2013: 189-198.
    在这里插入图片描述

    • 这篇工作是2013年发表在CIKM上的一篇工作。这篇工作关注的是社交网络上的用户推荐任务,由于关注者-被关注者矩阵非常稀疏,利用普通的MF进行矩阵分解操作并不能缓解准确率不高的事实
    • 作者提出是否可以把该关注者-被关注者矩阵按照用户兴趣分成多个小矩阵,然后再来进行矩阵分解呢?
    • 事实上是可以的,所以作者最后利用第一页提及到的LDA技术来获取到所有用户的关注者们的一个兴趣主题分布以及兴趣主题分布下的用户群体。再利用兴趣主题分布下的用户群体去进行小矩阵的划分,最后再在每个小矩阵上面进行矩阵分解。结果显示,效果挺好。

    P8

    Xu K, Zheng X, Cai Y, et al. Improving user recommendation by extracting social topics and interest topics of users in uni-directional social networks[J]. Knowledge-Based Systems, 2018, 140: 120-133.
    在这里插入图片描述

    • UIS-MF这篇工作也是用来处理社交网络上的用户推荐任务。这篇论文提出的其中之一原因与CB-MF原因一致,即由于关注者-被关注者矩阵非常稀疏,利用普通的MF进行矩阵分解操作并不能缓解准确率不高的事实,另外一个原因是CB-MF也没有考虑到的,即关注者关注被关注者可能是因为兴趣原因,但仍然有可能是因为社交原因,因为在线下认识的朋友,我们倾向于在线上也是朋友,而这一点在目前的论文中都没有被考虑到。
    • 使用基于原始LDA得到的兴趣分布下的用户群体显然是很粗糙的,如果我们能够使用改进的UIS-LDA进行训练,则我们可以得到兴趣分布下的用户群体以及社交分布下的用户群体,基于这两个群体去进行小矩阵的划分,会比前者考虑的更加细致,得到的群体矩阵更加‘精致’和‘准确’,最后用户推荐任务的准确率也会更好。

    P9

    Xu K, Cai Y, Min H, et al. Top-N Trustee Recommendation with Binary User Trust Feedback[C]//International Conference on Database Systems for Advanced Applications. Springer, Cham, 2018: 269-279.
    在这里插入图片描述

    • 在信任网络中,用户去信任并且关注某一个人有时候并不仅仅是因为用户本身的一个兴趣原因,也有可能是因为被关注者本身影响力很高值得信任的原因。而现有的大部分做法,不管是在社交网络中也好,或者是在信任网络中也好,都只考虑了关注者(信任者)本身兴趣偏好,而没有考虑过被关注者(被信任者)所拥有的影响力的原因。
    • 作者提出这个想法之后,对原始的LDA进行了改进操作,在工作UIS-LDA中我们只输入了用户关注者们表示的文档,得到了一个用户关注者的兴趣主题分布,而这里,我们对LDA进行训练,分别输入两个文档,一个是信任者的被信任者们的一个文档表示,另一个是被信任者的信任者们的一个文档表示,由此我们可以得到两个主题分布,分别是信任者们的兴趣分布,以及被信任者们的一个影响力分布,同时我们可以获得这两个分布下的用户分布。
    • 利用该用户分布,我们可以参照CB-MF的做法,划分小矩阵群体,把大的信任者-被信任者用户矩阵划分成很多的小的兴趣矩阵以及影响力矩阵,分别进行矩阵分解操作。

    P10

    Rendle S, Freudenthaler C, Gantner Z, et al. BPR: Bayesian personalized ranking from implicit feedback[C]//Proceedings of the twenty-fifth conference on uncertainty in artificial intelligence. AUAI Press, 2009: 452-461.
    在这里插入图片描述

    • bpr 这篇论文是在08年左右被提出来的,它的全称叫做贝叶斯个性化排序,此方法的提出主要是针对当时的TOPN推荐任务,当时的TOPN推荐任务主要是取预测评分的TopN来进行推荐,而这些预测评分基本上都是利用前面提及到的通过降低实际值与预测值之间的最小平方差而求到的,而事实上,这样求出来的预测评分高低并不能代表用户心目中的一个排序的高低!这样的排序是没有用的,所以你会看到即使我们的RMSE等指标都很好,但是准确率以及召回率等TopN评价指标都很低。
    • 所以作者提出的BPR专门针对TopN的排序任务,训练也是训练排序而不是训练预测评分值,那么怎么样去操作呢?作者提出了以下假想,他提出如果你面对 i 物品和 j 物品的时候选择了 i 物品,则表示相对于 j 物品来说,你更喜欢 i 物品。所以我们的做法是在训练的时候加大用户对 i 物品的喜欢程度和对 j 物品喜欢程度的一个差值,并且这个差值越大越好。
    • 上面的公式是bpr的通用公式,可以把它套在任何一个现存的方法上进行训练。

    P11

    在这里插入图片描述

    • 这就是bpr套上MF进行梯度下降训练的一个公式。(虽然我并不知道公式是怎么推出来的,但是我会直接用啊)

    P12

    Zhao T, Mcauley J, King I, et al. Leveraging Social Connections to Improve Personalized Ranking for Collaborative Filtering[C]. conference on information and knowledge management, 2014: 261-270.
    在这里插入图片描述

    • 这篇论文是2014年发表在CIKM上的一篇工作,这篇工作第一次把社交网络关系加入到了BPR的猜想中,该作者认为用户都会更加倾向于用户朋友喜欢的东西,而目前的很多工作并没有考虑到这一点。
    • 所以SBPR提出了以下两个猜想,1、用户更加喜欢自己有过正向反馈的物品而不是有过负向反馈或者没有过反馈的物品(与BPR的猜想一致); 2、用户更加偏向于用户的朋友喜欢的物品而不是自己有负向反馈或者没有反馈的物品。
    • 这两点猜想也就是PPT里面显示的公式。所以在训练的时候,不断的去加大这两个猜想的差值~

    P13

    Xu K, Xu Y, Min H, et al. Improving Item Ranking by Leveraging Dual Roles Influence[J]. IEEE Access, 2018, 6: 57434-57446.
    在这里插入图片描述

    • 这一篇工作是实验室老师在2018年发表的,作者把信任网络加入到了BPR猜想中,因为作者认为用户选择某一个物品不仅仅会受自己信任的人所影响,也会受自己不信任的人所影响,所以这两点因素都应该要被考虑进去。
    • 于是作者提出了以下三个猜想:1、用户更加倾向于自己喜欢的物品而不是信任他的人喜欢的物品;2、用户更加倾向于自己喜欢的物品而不是他信任的人喜欢的物品;3、用户更加倾向于信任他的人喜欢的物品而是不是自己不喜欢并且他信任或者信任他的人都不喜欢的物品。
    • 基于以上三点猜想,就可以直接进行训练得到想要的参数P矩阵和Q矩阵。

    P14

    Xu, Y.; Xu, K.; Cai, Y.; Min, H. Leveraging Distrust Relations to Improve Bayesian Personalized Ranking. Information 2018, 9, 191.
    在这里插入图片描述

    • 这一篇工作同样是在BPR算法上的改进,在以往的算法中往往都只考虑了利用信任信息,比如前一篇文章BPRDR,而没有人利用过用户之间的不信任信息。而事实上,利用这一块信息也是至关重要的,利用用户之间的不信任信息可以帮助用户排除掉用户不信任的人喜欢的物品。
    • 基于以上猜想,作者把物品分为了四种类型,分别是:1、Positive feedback,这一类物品是用户有过用户行为的物品;2、Trust feedback,这一类物品是用户没有过用户行为的物品,但是至少有他的一个信任者对该物品有过用户行为;3、Distrust feedback,这一类物品是用户和用户信任者都没有过用户行为的物品,但是至少有一个用户的不信任者对其有过用户行为的物品;4、Neutral feedback,这一类物品是用户和用户信任的人以及用户不信任的人都没有过用户行为的物品;
    • 所以作者提出了以下三个猜想:1、用户更加倾向于喜欢有过Positive feedback的东西而不是有过Trust feedback的东西;2、用户更加倾向于喜欢有过Trust feedback的东西而不是有过Neutral feedback的东西;3、用户更加倾向于喜欢有过Trust feedback而不是有过Distrust feedback的东西;
    • 基于以上三点假想,然后可以使用梯度下降进行训练得到想要的参数值。

    P15

    Ning X, Karypis G. Slim: Sparse linear methods for top-n recommender systems[C]//2011 IEEE 11th International Conference on Data Mining. IEEE, 2011: 497-506.
    在这里插入图片描述

    • 这一篇论文是2011年发表在ICDM上的一篇工作。论文的提出主要是为了提升推荐的质量以及效率,针对的任务是TopN推荐,作者提出他的这个工作更加适用于实时的应用上,因为它的速度真的很快。
    • 主要是通过一个辅助的稀疏的coefficient matrix来提升推荐质量,这个矩阵也是在训练时学习到的,公式如PPT上所示(应该挺容易看懂的,虽然效果很好,但是我不太知道这样做的原因是什么,可能是还没看懂)

    写在后面

    好了,这就是我最近看的14篇论文,如果有表达有误的,欢迎大家指正,毕竟自己学习的还不深~

    链接:https://pan.baidu.com/s/1oRkgUBRSDDEpFNphXWj6UA
    提取码:hwlp

    展开全文
  • 本文收集了CVPR 2020 关于目标检测相关论文算法,自动驾驶依然热门,所以带动着3D目标检测论文居多,当然2D目标检测依旧热门,神经架构搜索也开始在应用与目标检测,样本少和跨域研究也是非常值得关注研究。...

    本文收集了CVPR 2020 关于目标检测相关论文和算法,自动驾驶依然热门,所以带动着3D目标检测论文居多,当然2D目标检测依旧热门,神经架构搜索也开始在应用与目标检测,样本少和跨域的研究也是非常值得关注研究。

    先看看3D目标检测相关论文

    1.基于LiDAR的在线3D视频目标检测

    简要:现有的基于LiDAR的3D对象检测器通常专注于单帧检测,而忽略了连续点云帧中的时空信息。在本文中,我们提出了一种在点云序列上运行的端到端在线3D视频对象检测器。所提出的模型包括空间特征编码组件和时空特征聚集组件。在前一个组件中,提出了一种新颖的支柱消息传递网(PMPNet)对每个离散点云帧进行编码。它通过迭代消息传递来自适应地从其相邻节点收集有关某个支柱节点的信息,从而有效地扩大了支柱要素的接收范围。在后一部分中,我们提出了一个时空变压器GRU(AST-GRU)来汇总时空信息,通过专注的内存门控机制增强了传统的ConvGRU。AST-GRU包含一个空间变压器注意(STA)模块和一个时间变压器注意(TTA)模块,它们可以分别强调前景对象并对齐动态对象。实验结果表明,提出的3D视频对象检测器在大规模nuScenes基准上达到了最新的性能。

    ea6d967076015032f92dad386707f475.png

    论文地址:

    https://arxiv.org/pdf/2004.01389.pdf

    开源地址:

    https://github.com/yinjunbo/3DVID

    2.从点云进行结构感知的单阶段3D对象检测

    该论文提出了一个通用、高性能的自动驾驶检测器,首次实现3D物体检测精度与速度的兼得,有效提升自动驾驶系统安全性能。目前,该检测器在自动驾驶领域权威数据集KITTI BEV排行榜上排名第三。

    8dcb7be8d4341f622e955c9c881f5745.png
    4c4f81846d6e43de5ca0e94817d2f693.png

    论文地址:

    https://www4.comp.polyu.edu.hk/~cslzhang/paper/SA-SSD.pdf

    3.DSGN: Deep Stereo Geometry Network for 3D Object Detection

    该论文基于图像的方法与LiDAR的方法之间存在差距,因此大多数最先进的3D对象检测器都严重依赖LiDAR传感器。它是由3D场景中形成表示预测的方式引起的 。我们的称为深度立体几何网络(DSGN)的方法通过在可分辨的体积表示形式3D几何体上检测3D对象来显着的识别此差异,该3D几何体可有效地为3D规则空间编码3D几何结构。通过这种表示,我们可以同时学习深度信息和语义提示。我们首次提供了一种简单有效的基于立体声的单阶段3D检测管道,该管道可以以端到端的学习方式联合深度并检测3D对象。的方法先前以前的基于立体声的3D检测器(在AP方面要高出约10个),甚至可以在KITTI 3D对象检测排行榜上与多种基于LiDAR的方法获得可比的性能。

    ff40fef7d1639a4b05568eece4003cb4.png

    论坛地址:

    https://arxiv.org/pdf/2001.03398.pdf

    源码地址:

    https://github.com/Jia-Research-Lab/DSGN

    4.学习用于单眼3D对象检测的深度引导卷积

    由于缺乏准确的深度信息,从没有LiDAR的单个图像进行3D对象检测是一项艰巨的任务。常规2D卷积不适合此任务,因为它们无法捕获本地对象及其比例信息,这对于3D对象检测至关重要。为了更好地表示3D结构,现有技术通常将根据2D图像估计的深度图转换为伪LiDAR表示,然后应用现有的基于3D点云的对象检测器。但是,它们的结果在很大程度上取决于估计的深度图的准确性,从而导致性能欠佳。在这项工作中,我们不使用伪LiDAR表示,而是通过提出一个新的局部卷积网络(LCN),称为深度引导动态深度扩展LCN(D ^ 4),改进了基本的2D全卷积。4LCN),可以从基于图像的深度图自动获知滤镜及其接收场,从而使不同图像的不同像素具有不同的滤镜。D 4 LCN克服了传统2D卷积的局限性,缩小了图像表示和3D点云表示之间的差距。大量实验表明,D 4 LCN在很大程度上优于现有作品。例如,在中等设置下,D 4 LCN相对于KITTI的最新水平的相对改进为9.1%

    02d20d29febe51d846dbe82f0688f78d.png

    论文地址:

    https://arxiv.org/pdf/1912.04799.pdf

    源码地址:

    https://github.com/dingmyu/D4LCN

    5.What You See is What You Get: Exploiting Visibility for 3D Object Detection

    3D感测的最新进展为计算机视觉带来了独特的挑战。一个基本挑战是找到3D传感器数据的良好表示形式。在处理真正的3D数据(例如,从网格模型采样的点)的背景下提出了最流行的表示形式(例如PointNet),而忽略了诸如LiDAR扫掠等3D传感数据实际上为2.5D的事实。我们认为将2.5D数据表示为(x,y,z)点的集合会从根本上破坏有关自由空间的隐藏信息。在本文中,我们证明了此类知识可以通过3D射线广播有效地恢复,并且可以轻松地并入基于批次的梯度学习中。我们描述了一种通过可见性增强基于体素的网络的简单方法:我们添加了体素化的可见性图作为附加的输入流。此外,我们展示了可视性可以与最新3D检测器的两个关键修改相结合:虚拟对象的合成数据增强和多个时间范围内LiDAR扫描的时间聚合。在NuScenes 3D检测基准上,我们表明,通过为可见性输入添加附加流,我们可以显著提高最新3D检测器的总体检测精度。

    50626f4c967e8ea2809efaa1675d203c.png

    论文地址:

    https://arxiv.org/pdf/1912.04986.pdf

    作者主页:

    https://www.cs.cmu.edu/~peiyunh/wysiwyg/

    源码地址:

    https://github.com/peiyunh/wysiwyg

    6.Associate-3Ddet: Perceptual-to-Conceptual Association for 3D Point Cloud Object Detection

    尽管最近的研究推动了深度学习技术的发展,但从3D点云进行对象检测仍然是一项艰巨的任务。由于严重的空间遮挡和点密度与传感器之间距离的固有差异,因此在点云数据中同一对象的外观变化很大。因此,针对这种外观变化设计鲁棒的特征表示是3D对象检测方法中的关键问题。在本文中,我们创新地提出了一种域自适应之类的方法来增强特征表示的鲁棒性。更具体地说,我们弥合了特征来自真实场景的感知域和概念域之间的差距,概念域中的特征域是从包含丰富详细信息的非遮挡点云的增强场景中提取特征的。在进行对象感知时,这种域适应方法可模仿人脑的功能。大量实验表明,我们简单而有效的方法从根本上提高了3D点云对象检测的性能,并获得了最先进的结果。

    论文地址:

    https://arxiv.org/pdf/2006.04356.pdf

    源码地址:

    https://github.com/dleam/Associate-3Ddet

    7.SESS: Self-Ensembling Semi-Supervised 3D Object Detection

    现有基于点云的3D对象检测方法的性能在很大程度上依赖于大规模高质量3D注释。但是,这样的注释通常很乏味并且收集起来很昂贵。半监督学习是减轻数据注释问题的一种不错的选择,但在3D对象检测中仍未得到充分研究。受到最近在半监督图像分类任务中成功实现自组装技术的启发,我们提出了自组装半监督3D对象检测框架SESS。具体而言,我们设计了一种彻底的扰动方案,以增强网络在未标记和新的看不见的数据上的泛化能力。此外,我们提出了三个一致性损失,以增强两组预测的3D对象建议之间的一致性,从而有助于学习对象的结构和语义不变性。在SUN RGB-D和ScanNet数据集上进行的广泛实验证明了SESS在感应式和感应式半监督3D对象检测中的有效性。与最新的完全监督方法相比,我们的SESS仅使用50%的标记数据即可实现竞争优势。

    c5da92a6a56ff754a3b3004640cd2b16.png

    论文地址:

    https://arxiv.org/pdf/1912.11803v1.pdf

    源码地址:

    https://github.com/Na-Z/sess

    8.Density-Based Clustering for 3D Object Detection in Point Clouds

    Syeda Mariam Ahmed, Chee Meng Chew

    774c8d0bef7eec9c41dd867ae16a8077.png

    论文地址:

    http://openaccess.thecvf.com/content_CVPR_2020/papers/Ahmed_Density-Based_Clustering_for_3D_Object_Detection_in_Point_Clouds_CVPR_2020_paper.pdf

    9.Disp R-CNN: Stereo 3D Object Detection via Shape Prior Guided Instance Disparity Estimation

    在本文中,我们提出了一种名为Disp R-CNN的新颖系统,用于从立体图像中检测3D对象。许多最近的工作通过首先使用视差估计恢复点云,然后应用3D检测器来解决此问题。对于整个图像计算视差图,这是昂贵的并且不能利用特定于类别的先验。相反,我们设计了一个实例视差估计网络(iDispNet),该网络仅预测感兴趣对像上像素的视差,并在获得特定类别的形状之前先进行更精确的视差估计。为了解决培训中视差标注的稀缺性带来的挑战,我们建议使用统计形状模型来生成密集的视差伪地面真相,而无需使用LiDAR点云,这使得我们的系统更广泛地适用。

    f1f2b76b39feceb1fd978c0fca2c06fa.png

    论文地址:

    https://arxiv.org/pdf/2004.03572.pdf

    源码地址:

    https://github.com/zju3dv/disprcnn

    10.LCVNet: Multi-Level Context VoteNet for 3D Object Detection

    在本文中,我们通过利用自注意力机制和多尺度特征融合捕获多级上下文信息来解决3D对象检测任务。大多数现有的3D对象检测方法可以单独识别对象,而无需考虑这些对象之间的上下文信息。相比较而言,我们提出了多级上下文投票网(MLCVNet),以基于最新的投票网来关联地识别3D对象。我们在VoteNet的投票和分类阶段引入了三个上下文模块,以在不同级别上对上下文信息进行编码。具体地,在投票给它们对应的对象质心点之前,采用补丁到补丁上下文(PPC)模块来捕获点补丁之间的上下文信息。随后,在提议和分类阶段之前合并了一个对像到对像上下文(OOC)模块,以捕获对象候选对象之间的上下文信息。最后,设计了一个全局场景上下文(GSC)模块来学习全局场景上下文。我们通过在补丁,对象和场景级别捕获上下文信息来演示这些内容。我们的方法是提高检测精度,在具有挑战性的3D对象检测数据集(例如SUN RGBD和ScanNet)上实现最新的最新检测性能的有效方法。我们还在以下位置发布了代码 对象和场景级别。我们的方法是提高检测精度,在具有挑战性的3D对象检测数据集(例如SUN RGBD和ScanNet)上实现最新的最新检测性能的有效方法。我们还在以下位置发布了代码 对象和场景级别。我们的方法是提高检测精度,在具有挑战性的3D对象检测数据集(例如SUN RGBD和ScanNet)上实现最新的最新检测性能的有效方法。

    25c9e138db2ca9588a38ad71597ecc2c.png

    论文地址:

    https://arxiv.org/pdf/2004.05679.pdf

    源码地址:

    https://github.com/NUAAXQ/MLCVNet

    10.ImVoteNet: Boosting 3D Object Detection in Point Clouds With Image Votes

    252940ef33de17010eb17dacbad267f2.png

    得益于点云上深度学习的进步,3D对象检测取得了快速进展。仅有点云输入(例如VoteNet),一些最新作品甚至显示了最新的性能。但是,点云数据具有固有的局限性。它们稀疏,缺乏颜色信息,并且经常遭受传感器噪声的影响。另一方面,图像具有高分辨率和丰富的纹理。因此,它们可以补充点云提供的3D几何形状。然而,如何有效地使用图像信息来辅助基于点云的检测仍然是一个悬而未决的问题。在这项工作中,我们以VoteNet为基础,并提出了一种称为ImVoteNet的3D检测架构,专门用于RGB-D场景。ImVoteNet基于融合图像中的2D投票和点云中的3D投票。与先前有关多模式检测的工作相比,我们从2D图像中明确提取了几何特征和语义特征。我们利用相机参数将这些功能提升为3D。为了提高2D-3D特征融合的协同作用,我们还提出了一种多塔训练方案。我们在具有挑战性的SUN RGB-D数据集上验证了我们的模型,将最新结果提高了5.7 mAP。

    论文地址:

    https://arxiv.org/pdf/2001.10692v1.pdf

    11.PointPainting: Sequential Fusion for 3D Object Detection

    摄像头和激光雷达是普通机器人(尤其是自动驾驶汽车)中机器人技术的重要传感器形式。传感器提供补充信息,为紧密融合传感器提供了机会。令人惊讶的是,仅使用激光雷达的方法在主要基准数据集上的性能优于融合方法,这表明文献中存在空白。在这项工作中,我们提出了PointPainting:一种填补这一空白的顺序融合方法。PointPainting通过将激光雷达点投影到仅图像语义分割网络的输出中并将类分数附加到每个点来工作。然后可以将附加的(绘制的)点云馈送到任何仅激光雷达的方法。实验表明,在KITTI和nuScenes数据集上,对三种不同的最新方法(Point-RCNN,VoxelNet和PointPillars)进行了重大改进。PointRCNN的绘制版本代表了KITTI排行榜上用于鸟瞰检测任务的最新技术水平。在消融中,我们研究绘画的效果如何取决于语义分段输出的质量和格式,并演示如何通过流水线将等待时间最小化。

    9c4650ef2b134109526119b575fcdb88.png

    论文地址:

    https://arxiv.org/pdf/1911.10150.pdf

    12.End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection

    准确的3D对象检测是安全自动驾驶的必要条件。尽管LiDAR传感器可以提供对环境的准确3D点云估计,但对于许多设置而言,它们的价格也过高。最近,伪LiDAR(PL)的引入已大大缩小了基于LiDAR传感器的方法与基于廉价立体相机的方法之间的精度差距。通过将2D深度图输出转换为3D点云输入,PL将用于3D深度估计的最新深度神经网络与用于3D对象检测的深度神经网络相结合。但是,到目前为止,这两个网络必须分别进行培训。在本文中,我们介绍了一个基于差异表示表示(CoR)模块的新框架,该框架允许对整个PL管道进行端到端培训。最终的框架与大多数先进的网络兼容,可同时完成所有任务,并与PointRCNN相结合,在所有基准测试中均对PL进行了持续改进,从而在KITTI基于图像的3D对象检测排行榜上获得了最高的入场券。

    5674375e916c34a5164e0c92a27aba55.png

    论文地址:

    https://arxiv.org/pdf/2004.03080.pdf

    源码地址:

    https://github.com/mileyan/pseudo-LiDAR_e2e

    13.A Hierarchical Graph Network for 3D Object Detection on Point Clouds

    043770059c98bac85e63b730dcfb2c5f.png

    14.HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection

    96fb0b43e65c409ce947db7ac3466a5b.png

    15.Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud

    论文地址:

    源码地址:

    https://github.com/WeijingShi/Point-GNN

    796b22b37e81175e1a2f340b9bb09860.png

    16.Joint 3D Instance Segmentation and Object Detection for Autonomous Driving

    38b745ce31013366bdc38159b6a1c092.png

    17.PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection

    我们提出了一种新颖的高性能3D对象检测框架,称为PointVoxel-RCNN(PV-RCNN),用于从点云中进行精确的3D对象检测。我们提出的方法将3D体素卷积神经网络( CNN)和基于PointNet的集合抽象进行了深度集成,以学习更多判别性点云功能。它利用了3D体素CNN的高效学习和替代建议以及基于PointNet的网络的灵活接收范围的优势。具体而言,提出的框架通过新颖的体素集抽像模块将具有3D体素CNN的3D场景汇总为一小组关键点,以节省后续计算并编码轮廓场景特征。3D建议,提出了RoI-grid池,逐步通过具有多个接受域的关键点集抽象,从关键点到RoI-grid点抽象特定特定的功能。与传统的池化操作比例,RoI网格在KITTI数据集和Waymo Open数据集上进行的大量实验表明,我们提出的PV-RCNN仅使用点云就以明显的余量超越了最新的3D检测方法。

    论文地址:

    https://arxiv.org/pdf/1912.13192.pdf

    源码地址:

    https://github.com/sshaoshuai/PV-RCNN

    3c4b21ba63bbb2813f39ba95d0f79b45.png

    18.IDA-3D: Instance-Depth-Aware 3D Object Detection From Stereo Vision for Autonomous Driving

    1a440d2ee563a762f5cb7e50ac8797ae.png

    源码地址:

    https://github.com/swords123/IDA-3D

    24b7e062c3b6d54e5e011a8240872ff8.png

    19.MonoPair: Monocular 3D Object Detection Using Pairwise Spatial Relationships

    单眼3D对象检测是自动驾驶中必不可少的组成部分,同时又难以解决,特别是对于那些仅部分可见的被遮挡的样本。大多数检测器将每个3D对象视为一个独立的训练目标,这不可避免地导致缺乏对被遮挡样本的有用信息。为此,我们提出了一种通过考虑配对样本之间的关系来改进单眼3D对象检测的新颖方法。这使我们可以对来自相邻邻居的部分遮挡对象的空间约束进行编码。具体而言,提出的检测器计算出对象位置和相邻对像对的3D距离的感知不确定性的预测,随后通过非线性最小二乘法对其进行优化。最后,一级不确定性感知预测结构和后优化模块专门集成在一起,以确保运行时效率。实验表明,我们的方法在KITTI 3D检测基准上表现出最佳的性能,在性能上远远超过了最先进的竞争对手,尤其是对于硬样品。

    论文地址:

    https://arxiv.org/pdf/2003.00504.pdf

    20.Physically Realizable Adversarial Examples for LiDAR Object Detection

    现代自动驾驶系统严重依赖于深度学习模型来处理点云感官数据。同时,已经证明,深层模型容易受到视觉上无法察觉的扰动的对抗攻击。尽管这对自动驾驶行业构成安全隐患,但由于大多数对抗性攻击仅应用于2D平面图像,因此在3D感知方面的探索很少。在本文中,我们解决了这个问题,并提出了一种生成通用3D对抗对象的方法来欺骗LiDAR检测器。特别是,我们证明了在任何目标车辆的屋顶上放置一个敌对物体,以使车辆完全对LiDAR探测器隐藏,其成功率为80%。我们使用点云的各种输入表示形式,在一组检测器上报告攻击结果。我们还使用数据增强技术进行对抗性防御的初步研究。通过有限的培训数据,这是朝着在看不见的条件下更安全的自动驾驶迈出的一步。

    563cd7ee9a8287d5295138dca7942dbb.png

    论文地址:

    https://arxiv.org/pdf/2004.00543.pdf

    展开全文
  • 这是一篇硕士论文,题目是《图像拼接算法研究》,我在做本科毕业设计时从里面学了很多东西,所以推荐给大家
  • 本文收集了CVPR 2020 关于目标检测相关论文算法,自动驾驶依然热门,所以带动着3D目标检测论文居多,当然2D目标检测依旧热门,神经架构搜索也开始在应用与目标检测,样本少和跨域研究也是非常值得关注研究。...

     

    本文收集了CVPR 2020 关于目标检测相关论文和算法,自动驾驶依然热门,所以带动着3D目标检测论文居多,当然2D目标检测依旧热门,神经架构搜索也开始在应用与目标检测,样本少和跨域的研究也是非常值得关注研究。

     

    先看看3D目标检测相关论文

    1.基于LiDAR的在线3D视频目标检测

    简要:现有的基于LiDAR的3D对象检测器通常专注于单帧检测,而忽略了连续点云帧中的时空信息。在本文中,我们提出了一种在点云序列上运行的端到端在线3D视频对象检测器。所提出的模型包括空间特征编码组件和时空特征聚集组件。在前一个组件中,提出了一种新颖的支柱消息传递网(PMPNet)对每个离散点云帧进行编码。它通过迭代消息传递来自适应地从其相邻节点收集有关某个支柱节点的信息,从而有效地扩大了支柱要素的接收范围。在后一部分中,我们提出了一个时空变压器GRU(AST-GRU)来汇总时空信息,通过专注的内存门控机制增强了传统的ConvGRU。AST-GRU包含一个空间变压器注意(STA)模块和一个时间变压器注意(TTA)模块,它们可以分别强调前景对象并对齐动态对象。实验结果表明,提出的3D视频对象检测器在大规模nuScenes基准上达到了最新的性能。

    论文地址:

    https://arxiv.org/pdf/2004.01389.pdf

    开源地址:

    https://github.com/yinjunbo/3DVID

     

    2.从点云进行结构感知的单阶段3D对象检测

     

    该论文提出了一个通用、高性能的自动驾驶检测器,首次实现3D物体检测精度与速度的兼得,有效提升自动驾驶系统安全性能。目前,该检测器在自动驾驶领域权威数据集KITTI BEV排行榜上排名第三。

     

    论文地址:

    https://www4.comp.polyu.edu.hk/~cslzhang/paper/SA-SSD.pdf

     

    3.DSGN: Deep Stereo Geometry Network for 3D Object Detection

    该论文基于图像的方法与LiDAR的方法之间存在差距,因此大多数最先进的3D对象检测器都严重依赖LiDAR传感器。它是由3D场景中形成表示预测的方式引起的 。我们的称为深度立体几何网络(DSGN)的方法通过在可分辨的体积表示形式3D几何体上检测3D对象来显着的识别此差异,该3D几何体可有效地为3D规则空间编码3D几何结构。通过这种表示,我们可以同时学习深度信息和语义提示。我们首次提供了一种简单有效的基于立体声的单阶段3D检测管道,该管道可以以端到端的学习方式联合深度并检测3D对象。的方法先前以前的基于立体声的3D检测器(在AP方面要高出约10个),甚至可以在KITTI 3D对象检测排行榜上与多种基于LiDAR的方法获得可比的性能。

    论坛地址:

    https://arxiv.org/pdf/2001.03398.pdf

    源码地址:

    https://github.com/Jia-Research-Lab/DSGN

     

    4.学习用于单眼3D对象检测的深度引导卷积

    由于缺乏准确的深度信息,从没有LiDAR的单个图像进行3D对象检测是一项艰巨的任务。常规2D卷积不适合此任务,因为它们无法捕获本地对象及其比例信息,这对于3D对象检测至关重要。为了更好地表示3D结构,现有技术通常将根据2D图像估计的深度图转换为伪LiDAR表示,然后应用现有的基于3D点云的对象检测器。但是,它们的结果在很大程度上取决于估计的深度图的准确性,从而导致性能欠佳。在这项工作中,我们不使用伪LiDAR表示,而是通过提出一个新的局部卷积网络(LCN),称为深度引导动态深度扩展LCN(D ^ 4),改进了基本的2D全卷积。4LCN),可以从基于图像的深度图自动获知滤镜及其接收场,从而使不同图像的不同像素具有不同的滤镜。D 4 LCN克服了传统2D卷积的局限性,缩小了图像表示和3D点云表示之间的差距。大量实验表明,D 4 LCN在很大程度上优于现有作品。例如,在中等设置下,D 4 LCN相对于KITTI的最新水平的相对改进为9.1%

    论文地址:

    https://arxiv.org/pdf/1912.04799.pdf

    源码地址:

    https://github.com/dingmyu/D4LCN

     

    5.What You See is What You Get: Exploiting Visibility for 3D Object Detection

    3D感测的最新进展为计算机视觉带来了独特的挑战。一个基本挑战是找到3D传感器数据的良好表示形式。在处理真正的3D数据(例如,从网格模型采样的点)的背景下提出了最流行的表示形式(例如PointNet),而忽略了诸如LiDAR扫掠等3D传感数据实际上为2.5D的事实。我们认为将2.5D数据表示为(x,y,z)点的集合会从根本上破坏有关自由空间的隐藏信息。在本文中,我们证明了此类知识可以通过3D射线广播有效地恢复,并且可以轻松地并入基于批次的梯度学习中。我们描述了一种通过可见性增强基于体素的网络的简单方法:我们添加了体素化的可见性图作为附加的输入流。此外,我们展示了可视性可以与最新3D检测器的两个关键修改相结合:虚拟对象的合成数据增强和多个时间范围内LiDAR扫描的时间聚合。在NuScenes 3D检测基准上,我们表明,通过为可见性输入添加附加流,我们可以显著提高最新3D检测器的总体检测精度。

    论文地址:

    https://arxiv.org/pdf/1912.04986.pdf

    作者主页:

    https://www.cs.cmu.edu/~peiyunh/wysiwyg/

    源码地址:

    https://github.com/peiyunh/wysiwyg

     

    6.Associate-3Ddet: Perceptual-to-Conceptual Association for 3D Point Cloud Object Detection

    尽管最近的研究推动了深度学习技术的发展,但从3D点云进行对象检测仍然是一项艰巨的任务。由于严重的空间遮挡和点密度与传感器之间距离的固有差异,因此在点云数据中同一对象的外观变化很大。因此,针对这种外观变化设计鲁棒的特征表示是3D对象检测方法中的关键问题。在本文中,我们创新地提出了一种域自适应之类的方法来增强特征表示的鲁棒性。更具体地说,我们弥合了特征来自真实场景的感知域和概念域之间的差距,概念域中的特征域是从包含丰富详细信息的非遮挡点云的增强场景中提取特征的。在进行对象感知时,这种域适应方法可模仿人脑的功能。大量实验表明,我们简单而有效的方法从根本上提高了3D点云对象检测的性能,并获得了最先进的结果。

     

    论文地址:

    https://arxiv.org/pdf/2006.04356.pdf

    源码地址:

    https://github.com/dleam/Associate-3Ddet

     

    7.SESS: Self-Ensembling Semi-Supervised 3D Object Detection

    现有基于点云的3D对象检测方法的性能在很大程度上依赖于大规模高质量3D注释。但是,这样的注释通常很乏味并且收集起来很昂贵。半监督学习是减轻数据注释问题的一种不错的选择,但在3D对象检测中仍未得到充分研究。受到最近在半监督图像分类任务中成功实现自组装技术的启发,我们提出了自组装半监督3D对象检测框架SESS。具体而言,我们设计了一种彻底的扰动方案,以增强网络在未标记和新的看不见的数据上的泛化能力。此外,我们提出了三个一致性损失,以增强两组预测的3D对象建议之间的一致性,从而有助于学习对象的结构和语义不变性。在SUN RGB-D和ScanNet数据集上进行的广泛实验证明了SESS在感应式和感应式半监督3D对象检测中的有效性。与最新的完全监督方法相比,我们的SESS仅使用50%的标记数据即可实现竞争优势。

     

    论文地址:

    https://arxiv.org/pdf/1912.11803v1.pdf

    源码地址:

    https://github.com/Na-Z/sess

     

    8.Density-Based Clustering for 3D Object Detection in Point Clouds

    Syeda Mariam Ahmed, Chee Meng Chew

    论文地址:

    http://openaccess.thecvf.com/content_CVPR_2020/papers/Ahmed_Density-Based_Clustering_for_3D_Object_Detection_in_Point_Clouds_CVPR_2020_paper.pdf

     

    9.Disp R-CNN: Stereo 3D Object Detection via Shape Prior Guided Instance Disparity Estimation

    在本文中,我们提出了一种名为Disp R-CNN的新颖系统,用于从立体图像中检测3D对象。许多最近的工作通过首先使用视差估计恢复点云,然后应用3D检测器来解决此问题。对于整个图像计算视差图,这是昂贵的并且不能利用特定于类别的先验。相反,我们设计了一个实例视差估计网络(iDispNet),该网络仅预测感兴趣对像上像素的视差,并在获得特定类别的形状之前先进行更精确的视差估计。为了解决培训中视差标注的稀缺性带来的挑战,我们建议使用统计形状模型来生成密集的视差伪地面真相,而无需使用LiDAR点云,这使得我们的系统更广泛地适用。

    论文地址:

    https://arxiv.org/pdf/2004.03572.pdf

    源码地址:

    https://github.com/zju3dv/disprcnn

     

    10.LCVNet: Multi-Level Context VoteNet for 3D Object Detection

    在本文中,我们通过利用自注意力机制和多尺度特征融合捕获多级上下文信息来解决3D对象检测任务。大多数现有的3D对象检测方法可以单独识别对象,而无需考虑这些对象之间的上下文信息。相比较而言,我们提出了多级上下文投票网(MLCVNet),以基于最新的投票网来关联地识别3D对象。我们在VoteNet的投票和分类阶段引入了三个上下文模块,以在不同级别上对上下文信息进行编码。具体地,在投票给它们对应的对象质心点之前,采用补丁到补丁上下文(PPC)模块来捕获点补丁之间的上下文信息。随后,在提议和分类阶段之前合并了一个对像到对像上下文(OOC)模块,以捕获对象候选对象之间的上下文信息。最后,设计了一个全局场景上下文(GSC)模块来学习全局场景上下文。我们通过在补丁,对象和场景级别捕获上下文信息来演示这些内容。我们的方法是提高检测精度,在具有挑战性的3D对象检测数据集(例如SUN RGBD和ScanNet)上实现最新的最新检测性能的有效方法。我们还在以下位置发布了代码 对象和场景级别。我们的方法是提高检测精度,在具有挑战性的3D对象检测数据集(例如SUN RGBD和ScanNet)上实现最新的最新检测性能的有效方法。我们还在以下位置发布了代码 对象和场景级别。我们的方法是提高检测精度,在具有挑战性的3D对象检测数据集(例如SUN RGBD和ScanNet)上实现最新的最新检测性能的有效方法。

    论文地址:

    https://arxiv.org/pdf/2004.05679.pdf

     

    源码地址:

    https://github.com/NUAAXQ/MLCVNet

     

    10.ImVoteNet: Boosting 3D Object Detection in Point Clouds With Image Votes

     

    得益于点云上深度学习的进步,3D对象检测取得了快速进展。仅有点云输入(例如VoteNet),一些最新作品甚至显示了最新的性能。但是,点云数据具有固有的局限性。它们稀疏,缺乏颜色信息,并且经常遭受传感器噪声的影响。另一方面,图像具有高分辨率和丰富的纹理。因此,它们可以补充点云提供的3D几何形状。然而,如何有效地使用图像信息来辅助基于点云的检测仍然是一个悬而未决的问题。在这项工作中,我们以VoteNet为基础,并提出了一种称为ImVoteNet的3D检测架构,专门用于RGB-D场景。ImVoteNet基于融合图像中的2D投票和点云中的3D投票。与先前有关多模式检测的工作相比,我们从2D图像中明确提取了几何特征和语义特征。我们利用相机参数将这些功能提升为3D。为了提高2D-3D特征融合的协同作用,我们还提出了一种多塔训练方案。我们在具有挑战性的SUN RGB-D数据集上验证了我们的模型,将最新结果提高了5.7 mAP。

    论文地址:

    https://arxiv.org/pdf/2001.10692v1.pdf

     

    11.PointPainting: Sequential Fusion for 3D Object Detection

    摄像头和激光雷达是普通机器人(尤其是自动驾驶汽车)中机器人技术的重要传感器形式。传感器提供补充信息,为紧密融合传感器提供了机会。令人惊讶的是,仅使用激光雷达的方法在主要基准数据集上的性能优于融合方法,这表明文献中存在空白。在这项工作中,我们提出了PointPainting:一种填补这一空白的顺序融合方法。PointPainting通过将激光雷达点投影到仅图像语义分割网络的输出中并将类分数附加到每个点来工作。然后可以将附加的(绘制的)点云馈送到任何仅激光雷达的方法。实验表明,在KITTI和nuScenes数据集上,对三种不同的最新方法(Point-RCNN,VoxelNet和PointPillars)进行了重大改进。PointRCNN的绘制版本代表了KITTI排行榜上用于鸟瞰检测任务的最新技术水平。在消融中,我们研究绘画的效果如何取决于语义分段输出的质量和格式,并演示如何通过流水线将等待时间最小化。

     

    论文地址:

    https://arxiv.org/pdf/1911.10150.pdf

     

    12.End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection

    准确的3D对象检测是安全自动驾驶的必要条件。尽管LiDAR传感器可以提供对环境的准确3D点云估计,但对于许多设置而言,它们的价格也过高。最近,伪LiDAR(PL)的引入已大大缩小了基于LiDAR传感器的方法与基于廉价立体相机的方法之间的精度差距。通过将2D深度图输出转换为3D点云输入,PL将用于3D深度估计的最新深度神经网络与用于3D对象检测的深度神经网络相结合。但是,到目前为止,这两个网络必须分别进行培训。在本文中,我们介绍了一个基于差异表示表示(CoR)模块的新框架,该框架允许对整个PL管道进行端到端培训。最终的框架与大多数先进的网络兼容,可同时完成所有任务,并与PointRCNN相结合,在所有基准测试中均对PL进行了持续改进,从而在KITTI基于图

    像的3D对象检测排行榜上获得了最高的入场券。

     

    论文地址:

    https://arxiv.org/pdf/2004.03080.pdf

    源码地址:

    https://github.com/mileyan/pseudo-LiDAR_e2e

     

    13.A Hierarchical Graph Network for 3D Object Detection on Point Clouds

     

     

     

    15.Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud

    论文地址:

     

    源码地址:

    https://github.com/WeijingShi/Point-GNN

     

    16.Joint 3D Instance Segmentation and Object Detection for Autonomous Driving

     

     

     

     

     

    17.PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection

    我们提出了一种新颖的高性能3D对象检测框架,称为PointVoxel-RCNN(PV-RCNN),用于从点云中进行精确的3D对象检测。我们提出的方法将3D体素卷积神经网络( CNN)和基于PointNet的集合抽象进行了深度集成,以学习更多判别性点云功能。它利用了3D体素CNN的高效学习和替代建议以及基于PointNet的网络的灵活接收范围的优势。具体而言,提出的框架通过新颖的体素集抽像模块将具有3D体素CNN的3D场景汇总为一小组关键点,以节省后续计算并编码轮廓场景特征。3D建议,提出了RoI-grid池,逐步通过具有多个接受域的关键点集抽象,从关键点到RoI-grid点抽象特定特定的功能。与传统的池化操作比例,RoI网格在KITTI数据集和Waymo Open数据集上进行的大量实验表明,我们提出的PV-RCNN仅使用点云就以明显的余量超越了最新的3D检测方法。

     

    论文地址:

    https://arxiv.org/pdf/1912.13192.pdf

     

    源码地址:

    https://github.com/sshaoshuai/PV-RCNN

     

    18.IDA-3D: Instance-Depth-Aware 3D Object Detection From Stereo Vision for Autonomous Driving

     

    源码地址:

    https://github.com/swords123/IDA-3D

     

     

    19.MonoPair: Monocular 3D Object Detection Using Pairwise Spatial Relationships

     

    单眼3D对象检测是自动驾驶中必不可少的组成部分,同时又难以解决,特别是对于那些仅部分可见的被遮挡的样本。大多数检测器将每个3D对象视为一个独立的训练目标,这不可避免地导致缺乏对被遮挡样本的有用信息。为此,我们提出了一种通过考虑配对样本之间的关系来改进单眼3D对象检测的新颖方法。这使我们可以对来自相邻邻居的部分遮挡对象的空间约束进行编码。具体而言,提出的检测器计算出对象位置和相邻对像对的3D距离的感知不确定性的预测,随后通过非线性最小二乘法对其进行优化。最后,一级不确定性感知预测结构和后优化模块专门集成在一起,以确保运行时效率。实验表明,我们的方法在KITTI 3D检测基准上表现出最佳的性能,在性能上远远超过了最先进的竞争对手,尤其是对于硬样品。

    论文地址:

    https://arxiv.org/pdf/2003.00504.pdf

     

     

     

    20.Physically Realizable Adversarial Examples for LiDAR Object Detection

    现代自动驾驶系统严重依赖于深度学习模型来处理点云感官数据。同时,已经证明,深层模型容易受到视觉上无法察觉的扰动的对抗攻击。尽管这对自动驾驶行业构成安全隐患,但由于大多数对抗性攻击仅应用于2D平面图像,因此在3D感知方面的探索很少。在本文中,我们解决了这个问题,并提出了一种生成通用3D对抗对象的方法来欺骗LiDAR检测器。特别是,我们证明了在任何目标车辆的屋顶上放置一个敌对物体,以使车辆完全对LiDAR探测器隐藏,其成功率为80%。我们使用点云的各种输入表示形式,在一组检测器上报告攻击结果。我们还使用数据增强技术进行对抗性防御的初步研究。通过有限的培训数据,这是朝着在看不见的条件下更安全的自动驾驶迈出的一步。

     

    论文地址:

    https://arxiv.org/pdf/2004.00543.pdf

     

    更多论文地址源码地址:关注“图像算法”微信公众号

    展开全文
  • 一篇关于多事例学习的推荐的论文,介绍的是如何讲多事例学习方法用在推荐算法中,可以参考看一下。
  • 本文收集了CVPR 2020 关于目标检测相关论文算法,自动驾驶依然热门,所以带动着3D目标检测论文居多,当然2D目标检测依旧热门,神经架构搜索也开始在应用与目标检测,样本少和跨域研究也是非常值得关注研究。...

    本文收集了CVPR 2020 关于目标检测相关论文和算法,自动驾驶依然热门,所以带动着3D目标检测论文居多,当然2D目标检测依旧热门,神经架构搜索也开始在应用与目标检测,样本少和跨域的研究也是非常值得关注研究。

    先看看3D目标检测相关论文

    1.基于LiDAR的在线3D视频目标检测

    简要:现有的基于LiDAR的3D对象检测器通常专注于单帧检测,而忽略了连续点云帧中的时空信息。在本文中,我们提出了一种在点云序列上运行的端到端在线3D视频对象检测器。所提出的模型包括空间特征编码组件和时空特征聚集组件。在前一个组件中,提出了一种新颖的支柱消息传递网(PMPNet)对每个离散点云帧进行编码。它通过迭代消息传递来自适应地从其相邻节点收集有关某个支柱节点的信息,从而有效地扩大了支柱要素的接收范围。在后一部分中,我们提出了一个时空变压器GRU(AST-GRU)来汇总时空信息,通过专注的内存门控机制增强了传统的ConvGRU。AST-GRU包含一个空间变压器注意(STA)模块和一个时间变压器注意(TTA)模块,它们可以分别强调前景对象并对齐动态对象。实验结果表明,提出的3D视频对象检测器在大规模nuScenes基准上达到了最新的性能。

    2a35f9fce5094d3b811a19bcd57f513e

    论文地址:

    https://arxiv.org/pdf/2004.01389.pdf

    开源地址:

    https://github.com/yinjunbo/3DVID

    2.从点云进行结构感知的单阶段3D对象检测

    该论文提出了一个通用、高性能的自动驾驶检测器,首次实现3D物体检测精度与速度的兼得,有效提升自动驾驶系统安全性能。目前,该检测器在自动驾驶领域权威数据集KITTI BEV排行榜上排名第三。

    7d4837e586cb4df79159128ea1b7292e
    1d17dedc5b7c442f90784b5608143628

    论文地址:

    https://www4.comp.polyu.edu.hk/~cslzhang/paper/SA-SSD.pdf

    3.DSGN: Deep Stereo Geometry Network for 3D Object Detection

    该论文基于图像的方法与LiDAR的方法之间存在差距,因此大多数最先进的3D对象检测器都严重依赖LiDAR传感器。它是由3D场景中形成表示预测的方式引起的 。我们的称为深度立体几何网络(DSGN)的方法通过在可分辨的体积表示形式3D几何体上检测3D对象来显着的识别此差异,该3D几何体可有效地为3D规则空间编码3D几何结构。通过这种表示,我们可以同时学习深度信息和语义提示。我们首次提供了一种简单有效的基于立体声的单阶段3D检测管道,该管道可以以端到端的学习方式联合深度并检测3D对象。的方法先前以前的基于立体声的3D检测器(在AP方面要高出约10个),甚至可以在KITTI 3D对象检测排行榜上与多种基于LiDAR的方法获得可比的性能。

    bc14d4b9018349a2be0feaf49d56e625

    论坛地址:

    https://arxiv.org/pdf/2001.03398.pdf

    源码地址:

    https://github.com/Jia-Research-Lab/DSGN

    4.学习用于单眼3D对象检测的深度引导卷积

    由于缺乏准确的深度信息,从没有LiDAR的单个图像进行3D对象检测是一项艰巨的任务。常规2D卷积不适合此任务,因为它们无法捕获本地对象及其比例信息,这对于3D对象检测至关重要。为了更好地表示3D结构,现有技术通常将根据2D图像估计的深度图转换为伪LiDAR表示,然后应用现有的基于3D点云的对象检测器。但是,它们的结果在很大程度上取决于估计的深度图的准确性,从而导致性能欠佳。在这项工作中,我们不使用伪LiDAR表示,而是通过提出一个新的局部卷积网络(LCN),称为深度引导动态深度扩展LCN(D ^ 4),改进了基本的2D全卷积。4LCN),可以从基于图像的深度图自动获知滤镜及其接收场,从而使不同图像的不同像素具有不同的滤镜。D 4 LCN克服了传统2D卷积的局限性,缩小了图像表示和3D点云表示之间的差距。大量实验表明,D 4 LCN在很大程度上优于现有作品。例如,在中等设置下,D 4 LCN相对于KITTI的最新水平的相对改进为9.1%

    e4bcbfe57f594ebf81de5b8530b33af4

    论文地址:

    https://arxiv.org/pdf/1912.04799.pdf

    源码地址:

    https://github.com/dingmyu/D4LCN

    5.What You See is What You Get: Exploiting Visibility for 3D Object Detection

    3D感测的最新进展为计算机视觉带来了独特的挑战。一个基本挑战是找到3D传感器数据的良好表示形式。在处理真正的3D数据(例如,从网格模型采样的点)的背景下提出了最流行的表示形式(例如PointNet),而忽略了诸如LiDAR扫掠等3D传感数据实际上为2.5D的事实。我们认为将2.5D数据表示为(x,y,z)点的集合会从根本上破坏有关自由空间的隐藏信息。在本文中,我们证明了此类知识可以通过3D射线广播有效地恢复,并且可以轻松地并入基于批次的梯度学习中。我们描述了一种通过可见性增强基于体素的网络的简单方法:我们添加了体素化的可见性图作为附加的输入流。此外,我们展示了可视性可以与最新3D检测器的两个关键修改相结合:虚拟对象的合成数据增强和多个时间范围内LiDAR扫描的时间聚合。在NuScenes 3D检测基准上,我们表明,通过为可见性输入添加附加流,我们可以显著提高最新3D检测器的总体检测精度。

    8e7f53180ff04cb2b7be4bea1c3b8542

    论文地址:

    https://arxiv.org/pdf/1912.04986.pdf

    作者主页:

    https://www.cs.cmu.edu/~peiyunh/wysiwyg/

    源码地址:

    https://github.com/peiyunh/wysiwyg

    6.Associate-3Ddet: Perceptual-to-Conceptual Association for 3D Point Cloud Object Detection

    尽管最近的研究推动了深度学习技术的发展,但从3D点云进行对象检测仍然是一项艰巨的任务。由于严重的空间遮挡和点密度与传感器之间距离的固有差异,因此在点云数据中同一对象的外观变化很大。因此,针对这种外观变化设计鲁棒的特征表示是3D对象检测方法中的关键问题。在本文中,我们创新地提出了一种域自适应之类的方法来增强特征表示的鲁棒性。更具体地说,我们弥合了特征来自真实场景的感知域和概念域之间的差距,概念域中的特征域是从包含丰富详细信息的非遮挡点云的增强场景中提取特征的。在进行对象感知时,这种域适应方法可模仿人脑的功能。大量实验表明,我们简单而有效的方法从根本上提高了3D点云对象检测的性能,并获得了最先进的结果。

    论文地址:

    https://arxiv.org/pdf/2006.04356.pdf

    源码地址:

    https://github.com/dleam/Associate-3Ddet

    7.SESS: Self-Ensembling Semi-Supervised 3D Object Detection

    现有基于点云的3D对象检测方法的性能在很大程度上依赖于大规模高质量3D注释。但是,这样的注释通常很乏味并且收集起来很昂贵。半监督学习是减轻数据注释问题的一种不错的选择,但在3D对象检测中仍未得到充分研究。受到最近在半监督图像分类任务中成功实现自组装技术的启发,我们提出了自组装半监督3D对象检测框架SESS。具体而言,我们设计了一种彻底的扰动方案,以增强网络在未标记和新的看不见的数据上的泛化能力。此外,我们提出了三个一致性损失,以增强两组预测的3D对象建议之间的一致性,从而有助于学习对象的结构和语义不变性。在SUN RGB-D和ScanNet数据集上进行的广泛实验证明了SESS在感应式和感应式半监督3D对象检测中的有效性。与最新的完全监督方法相比,我们的SESS仅使用50%的标记数据即可实现竞争优势。

    a98a49b5a21e4dd780954cc6ae9d9d95

    论文地址:

    https://arxiv.org/pdf/1912.11803v1.pdf

    源码地址:

    https://github.com/Na-Z/sess

    8.Density-Based Clustering for 3D Object Detection in Point Clouds

    Syeda Mariam Ahmed, Chee Meng Chew

    d5e3811541124372a12df8fa4848bc4c

    论文地址:

    http://openaccess.thecvf.com/content_CVPR_2020/papers/Ahmed_Density-Based_Clustering_for_3D_Object_Detection_in_Point_Clouds_CVPR_2020_paper.pdf

    9.Disp R-CNN: Stereo 3D Object Detection via Shape Prior Guided Instance Disparity Estimation

    在本文中,我们提出了一种名为Disp R-CNN的新颖系统,用于从立体图像中检测3D对象。许多最近的工作通过首先使用视差估计恢复点云,然后应用3D检测器来解决此问题。对于整个图像计算视差图,这是昂贵的并且不能利用特定于类别的先验。相反,我们设计了一个实例视差估计网络(iDispNet),该网络仅预测感兴趣对像上像素的视差,并在获得特定类别的形状之前先进行更精确的视差估计。为了解决培训中视差标注的稀缺性带来的挑战,我们建议使用统计形状模型来生成密集的视差伪地面真相,而无需使用LiDAR点云,这使得我们的系统更广泛地适用。

    414e82121b8b4c738ea827f5851024ea

    论文地址:

    https://arxiv.org/pdf/2004.03572.pdf

    源码地址:

    https://github.com/zju3dv/disprcnn

    10.LCVNet: Multi-Level Context VoteNet for 3D Object Detection

    在本文中,我们通过利用自注意力机制和多尺度特征融合捕获多级上下文信息来解决3D对象检测任务。大多数现有的3D对象检测方法可以单独识别对象,而无需考虑这些对象之间的上下文信息。相比较而言,我们提出了多级上下文投票网(MLCVNet),以基于最新的投票网来关联地识别3D对象。我们在VoteNet的投票和分类阶段引入了三个上下文模块,以在不同级别上对上下文信息进行编码。具体地,在投票给它们对应的对象质心点之前,采用补丁到补丁上下文(PPC)模块来捕获点补丁之间的上下文信息。随后,在提议和分类阶段之前合并了一个对像到对像上下文(OOC)模块,以捕获对象候选对象之间的上下文信息。最后,设计了一个全局场景上下文(GSC)模块来学习全局场景上下文。我们通过在补丁,对象和场景级别捕获上下文信息来演示这些内容。我们的方法是提高检测精度,在具有挑战性的3D对象检测数据集(例如SUN RGBD和ScanNet)上实现最新的最新检测性能的有效方法。我们还在以下位置发布了代码 对象和场景级别。我们的方法是提高检测精度,在具有挑战性的3D对象检测数据集(例如SUN RGBD和ScanNet)上实现最新的最新检测性能的有效方法。我们还在以下位置发布了代码 对象和场景级别。我们的方法是提高检测精度,在具有挑战性的3D对象检测数据集(例如SUN RGBD和ScanNet)上实现最新的最新检测性能的有效方法。

    0950a54b19c84dc5bdb91cdab054ef3e

    论文地址:

    https://arxiv.org/pdf/2004.05679.pdf

    源码地址:

    https://github.com/NUAAXQ/MLCVNet

    10.ImVoteNet: Boosting 3D Object Detection in Point Clouds With Image Votes

    0486d94a0c2c4afa8580b7adfe48d3b9

    得益于点云上深度学习的进步,3D对象检测取得了快速进展。仅有点云输入(例如VoteNet),一些最新作品甚至显示了最新的性能。但是,点云数据具有固有的局限性。它们稀疏,缺乏颜色信息,并且经常遭受传感器噪声的影响。另一方面,图像具有高分辨率和丰富的纹理。因此,它们可以补充点云提供的3D几何形状。然而,如何有效地使用图像信息来辅助基于点云的检测仍然是一个悬而未决的问题。在这项工作中,我们以VoteNet为基础,并提出了一种称为ImVoteNet的3D检测架构,专门用于RGB-D场景。ImVoteNet基于融合图像中的2D投票和点云中的3D投票。与先前有关多模式检测的工作相比,我们从2D图像中明确提取了几何特征和语义特征。我们利用相机参数将这些功能提升为3D。为了提高2D-3D特征融合的协同作用,我们还提出了一种多塔训练方案。我们在具有挑战性的SUN RGB-D数据集上验证了我们的模型,将最新结果提高了5.7 mAP。

    论文地址:

    https://arxiv.org/pdf/2001.10692v1.pdf

    11.PointPainting: Sequential Fusion for 3D Object Detection

    摄像头和激光雷达是普通机器人(尤其是自动驾驶汽车)中机器人技术的重要传感器形式。传感器提供补充信息,为紧密融合传感器提供了机会。令人惊讶的是,仅使用激光雷达的方法在主要基准数据集上的性能优于融合方法,这表明文献中存在空白。在这项工作中,我们提出了PointPainting:一种填补这一空白的顺序融合方法。PointPainting通过将激光雷达点投影到仅图像语义分割网络的输出中并将类分数附加到每个点来工作。然后可以将附加的(绘制的)点云馈送到任何仅激光雷达的方法。实验表明,在KITTI和nuScenes数据集上,对三种不同的最新方法(Point-RCNN,VoxelNet和PointPillars)进行了重大改进。PointRCNN的绘制版本代表了KITTI排行榜上用于鸟瞰检测任务的最新技术水平。在消融中,我们研究绘画的效果如何取决于语义分段输出的质量和格式,并演示如何通过流水线将等待时间最小化。

    60a271401f1d41498c49f981d99da438

    论文地址:

    https://arxiv.org/pdf/1911.10150.pdf

    12.End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection

    准确的3D对象检测是安全自动驾驶的必要条件。尽管LiDAR传感器可以提供对环境的准确3D点云估计,但对于许多设置而言,它们的价格也过高。最近,伪LiDAR(PL)的引入已大大缩小了基于LiDAR传感器的方法与基于廉价立体相机的方法之间的精度差距。通过将2D深度图输出转换为3D点云输入,PL将用于3D深度估计的最新深度神经网络与用于3D对象检测的深度神经网络相结合。但是,到目前为止,这两个网络必须分别进行培训。在本文中,我们介绍了一个基于差异表示表示(CoR)模块的新框架,该框架允许对整个PL管道进行端到端培训。最终的框架与大多数先进的网络兼容,可同时完成所有任务,并与PointRCNN相结合,在所有基准测试中均对PL进行了持续改进,从而在KITTI基于图像的3D对象检测排行榜上获得了最高的入场券。

    ab1a65340de74c88b8a949bf85d43535

    论文地址:

    https://arxiv.org/pdf/2004.03080.pdf

    源码地址:

    https://github.com/mileyan/pseudo-LiDAR_e2e

    13.A Hierarchical Graph Network for 3D Object Detection on Point Clouds

    a81179b24b0344129b3d6cea9067777a

    14.HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection

    404be2fe9d1b4208a2046006595f9850

    15.Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud

    论文地址:

    源码地址:

    https://github.com/WeijingShi/Point-GNN

    0e44a14d898748fab467b786f24afe1f

    16.Joint 3D Instance Segmentation and Object Detection for Autonomous Driving

    1348b6a988f74a5289c5b9259141bfe4

    17.PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection

    我们提出了一种新颖的高性能3D对象检测框架,称为PointVoxel-RCNN(PV-RCNN),用于从点云中进行精确的3D对象检测。我们提出的方法将3D体素卷积神经网络( CNN)和基于PointNet的集合抽象进行了深度集成,以学习更多判别性点云功能。它利用了3D体素CNN的高效学习和替代建议以及基于PointNet的网络的灵活接收范围的优势。具体而言,提出的框架通过新颖的体素集抽像模块将具有3D体素CNN的3D场景汇总为一小组关键点,以节省后续计算并编码轮廓场景特征。3D建议,提出了RoI-grid池,逐步通过具有多个接受域的关键点集抽象,从关键点到RoI-grid点抽象特定特定的功能。与传统的池化操作比例,RoI网格在KITTI数据集和Waymo Open数据集上进行的大量实验表明,我们提出的PV-RCNN仅使用点云就以明显的余量超越了最新的3D检测方法。

    论文地址:

    https://arxiv.org/pdf/1912.13192.pdf

    源码地址:

    https://github.com/sshaoshuai/PV-RCNN

    efdecf0181ff41218c7a139158cb5a55

    18.IDA-3D: Instance-Depth-Aware 3D Object Detection From Stereo Vision for Autonomous Driving

    71d49e74d4d34cd9b8bf56dbb83637d1

    源码地址:

    https://github.com/swords123/IDA-3D

    8c68f5b793dc45f2874e3fbe23bdaf24

    19.MonoPair: Monocular 3D Object Detection Using Pairwise Spatial Relationships

    单眼3D对象检测是自动驾驶中必不可少的组成部分,同时又难以解决,特别是对于那些仅部分可见的被遮挡的样本。大多数检测器将每个3D对象视为一个独立的训练目标,这不可避免地导致缺乏对被遮挡样本的有用信息。为此,我们提出了一种通过考虑配对样本之间的关系来改进单眼3D对象检测的新颖方法。这使我们可以对来自相邻邻居的部分遮挡对象的空间约束进行编码。具体而言,提出的检测器计算出对象位置和相邻对像对的3D距离的感知不确定性的预测,随后通过非线性最小二乘法对其进行优化。最后,一级不确定性感知预测结构和后优化模块专门集成在一起,以确保运行时效率。实验表明,我们的方法在KITTI 3D检测基准上表现出最佳的性能,在性能上远远超过了最先进的竞争对手,尤其是对于硬样品。

    论文地址:

    https://arxiv.org/pdf/2003.00504.pdf

    20.Physically Realizable Adversarial Examples for LiDAR Object Detection

    现代自动驾驶系统严重依赖于深度学习模型来处理点云感官数据。同时,已经证明,深层模型容易受到视觉上无法察觉的扰动的对抗攻击。尽管这对自动驾驶行业构成安全隐患,但由于大多数对抗性攻击仅应用于2D平面图像,因此在3D感知方面的探索很少。在本文中,我们解决了这个问题,并提出了一种生成通用3D对抗对象的方法来欺骗LiDAR检测器。特别是,我们证明了在任何目标车辆的屋顶上放置一个敌对物体,以使车辆完全对LiDAR探测器隐藏,其成功率为80%。我们使用点云的各种输入表示形式,在一组检测器上报告攻击结果。我们还使用数据增强技术进行对抗性防御的初步研究。通过有限的培训数据,这是朝着在看不见的条件下更安全的自动驾驶迈出的一步。

    77ba7a8cb5fe4cb7abb767e2e226a48e

    论文地址:

    https://arxiv.org/pdf/2004.00543.pdf

    展开全文
  • 本文收集了CVPR 2020 关于目标检测相关论文算法,自动驾驶依然热门,所以带动着3D目标检测论文居多,当然2D目标检测依旧热门,神经架构搜索也开始在应用与目标检测,样本少和跨域研究也是非常值得关注研究。...
  • 这是一篇关于异构社交网络的相关算法的论文。用户聚类
  • 随着在线学习平台的快速发展,学习资源也空前丰富。 个性化学习算法的研究... 本文构成了国内外关于个性化学习算法的文献综述。 综述旨在阐述基于推荐系统和个性化学习算法中数据挖掘的研究,并展望未来的研究趋势。
  • 为什么YouTube平台上会源源不断产生优质视频和优质广告,真的...本文是YouTube在推出关于自家推荐系统的论文后,作者对其的验证、补足和进一步解析。 去年,在波士顿举办的第10届ACM推荐系统大会(ACM’s RecSys
  • 本文是一篇很优秀的关于实时推荐系统的论文。在本论文中介绍了kafka集群架构、storm原理、协同过滤的推荐算法
  • Hello,今天为朋友们推荐一个值得学习公众号「浅梦学习笔记」,小编目前在电商公司从事推荐系统相关工作。主要分享关于推荐系统,图算法,NLP&CV以及求职面试」等内容,欢...
  • 1、关于BPR的论文原文: BPR: Bayesian Personalized Ranking from Implicit Feedback 2、参考1:论文快读 - BPR: Bayesian Personalized Ranking from Implicit Feedback (该博主的网站不错,尤其论文快读模块) ...
  • 大会涵盖了与推荐系统相关主题,从推荐系统社会影响到搭建推荐系统所用的算法。 今年,除了从算法和方法角度来看待“推荐系统”这一领域外,我们还通过发现、解决推荐系统中存在问题来进一步认...
  • 最后仔细思考了一下,我决定使用基于用户协同过滤算法做为智能推荐算法。 先说一下,基于用户协同过滤算法是什么意思吧。用最通俗话来说就是,物以类聚,人以群分,所以我要做到就是通过新用户刚注册...
  • 自我感觉挺有趣,有兴趣同学推荐一读。 论文题目:View-GCN: View-based Graph Convolutional Network for 3D Shape Analysis 论文作者:Xin Wei, Ruixuan Yu and Jian Sun* 作者单位:Xi’an Jiaotong ...
  • 基于深度学习图像超分论文推荐

    千次阅读 2019-05-29 11:10:58
    CVPR2019中关于超分辨率算法的16篇论文压压惊。 好了,上干货,开始我们的重点,首先介绍下概念: 超分辨率(Super Resolution,SR) 超分辨率是一项底层图像处理任务,将低分辨率的图像映射至高分辨率,以期达到...
  • @[TOC](Paper notes(2):三部图张量分解标签推荐算法) 本文只是个人用于记录论文学习笔记,如有写错地方还望各位大佬批评指正。 1. 解决问题和解决方法 三部图转换成二部图时会丢失部分元素间相关信息,而且...
  • 但是这种自左向右序列推荐算法限制了用户历史信息发挥,RNN有顺序,而这种顺序性假设,对于实际生活中用户行为并不适用。 举个例子,我们今天可能会买笔记本电脑、耳机、机械键盘,但这三样东西购买顺序...
  • A Worrying Analysis of Recent Neural Recommendation Approaches》总结最近三年四大顶会深度推荐系统上18个最新算法。 欢迎转载,转载请注明出处以及链接,更多关于深度推荐系统优质内容请关注如下频道。 ...
  • 最近一直在花时间研究和实现一些推荐算法,并且搭建系统在产品中进行测试。 我读了一些关于Netflix等网站“如何使用Collaborative Filtering来预测用户对其他影片打分”文章,之前也曾在Pinterest目睹了Related...
  • 本期,为大家推送CVPR 2020一篇关于图神经网络与3D相关文章[1]。自我感觉挺有趣,有兴趣同学推荐一读。论文题目:View-GCN: view-based Graph Convolutional Network for 3D Shape Analysis论文作者:Xin Wei,...
  • 嘿,记得给“机器学习与推荐算法”添加星标前段时间还跟实验室同学专门讨论了下关于个性化排序中评价指标问题,即我们在实验过程中究竟使用哪一种实验设置才能较好反映模型泛化能力,比如采用...
  • 红黑树算法的层层剖析与逐步实现 ---- 作者July二零一零年十二月三十一日 本文主要参考:算法导论第二版本文主要代码:参考算法导论。本文图片来源:个人手工画成、算法导论原书。推荐阅读:Leo J. ...
  • 算法,就是推荐系统中一味追求先进的算法算是个误区,通常论文研究类的推荐方法有带有很多假设限制,有考虑工程实现问题较少,推荐系统需要大量数据整理和转化,同时更需要考虑公司业务特性以及与现有系统...
  • 作者:机器学习与推荐算法本文长度为3300字,建议阅读5分钟均为近期浏览到的关于社会化推荐相关文章。近期浏览到的关于社会化推荐相关文章,有几篇利用图卷积网络(GCN)来建模,也有利...

空空如也

空空如也

1 2 3 4 5 6
收藏数 119
精华内容 47
关键字:

关于推荐算法的论文