精华内容
下载资源
问答
  • 机器学习程序环境往往涉及到以下几个方面的问题: 硬件,intel x86,amd,arm等各种芯片 操作系统,windows,ubuntu,centos,mac等,考虑64位,32位等 显卡驱动,例如采用英伟达nvidia公司的GPU显卡,1070ti,...

    目录

    问题

    解决思路

    总结


    问题

    跑机器学习程序环境往往涉及到以下几个方面的问题:

    1. 硬件,intel x86,amd,arm等各种芯片
    2. 操作系统,windows,ubuntu,centos,mac等,考虑64位,32位等
    3. 显卡驱动,例如采用英伟达nvidia公司的GPU显卡,1070ti,1080ti等等显卡涉及到驱动,cuda,cudnn等的安装问题
    4. 开发语言:目前主流的机器学习实验开发语言是python,涉及到python版本管理问题,各种依赖包管理与隔离问题
    5. 主流机器学习框架,对前面 4个 问题的依赖不一样,例如tensorflow,pytorch,keras(tensorflow2.0已经直接包含了该库),nni等等,例如做得好pytoch给你列出了各个情况下的安装方法

    ,但是例如tensorflow并没有很好的告诉用户每个版本的tensorflow依赖哪个版本的os和cuda版本编译,导致很多时候用户安装环境都搞半天。

    解决思路

    针对以上问题:

    1. 我们一般采用intel x86的芯片。操作系统一般采用x86 64位的Linux操作系统,以前是ubuntu14.04现在ubuntu18.04 x64逐步开始流行起来,例如nvidia英伟达公司官方的docker镜像 “nvidia/cuda:10.0-base” 就默认是ubuntu18.04
    2. 大部分机器学习框架都已经支持在ubuntu18.04 linxu操作系统版本下的运行
    3. 宿主机器要装好驱动,例如宿主机为:安装一个最新版本的英伟达的显卡驱动“NVIDIA-Linux-x86_64-460.39.run”,具体各这驱动可以在英伟达官网上选择筛选,这里是1070ti显卡,linux生产稳定版本环境,“https://www.nvidia.cn/Download/index.aspx?lang=cn”其中选择:下载即可,对于国内网速慢原因我已经放了一份在百度云盘:“链接:https://pan.baidu.com/s/1b_FTjx4UsDhyWfNTfCjw3w 
      提取码:6666 ”,如果是windows环境安装最新的英伟达驱动即可,docker中采用镜像:“nvidia/cuda:10.0-base”,默认就把cuda10.0 cudnn装好了
    4. 在基于镜像“nvidia/cuda:10.0-base”的容器中安装 Miniconda3-py39_4.9.2-Linux-x86_64.sh 版本的miniconda,安装这个最新版本的好处在于可以用最小的安装空间得到基础的python各种版本和依赖库,例如:“conda create --name yolov5_py3.8 python=3.8”,安装好自动配置环境变量后,就可以打包成一个可复用的docker,这里有个笔者已经做好的docker:registry.cn-hangzhou.aliyuncs.com/allen135681/easyml:ubuntu18.04-nvidia_cuda10.0-base-Miniconda3-py39_4.9.2  执行下面命令就可以本地下载好该docker。windows 10下可以用wsl docker技术拉取该镜像。
      sudo docker pull registry.cn-hangzhou.aliyuncs.com/allen135681/easyml:ubuntu18.04-nvidia_cuda10.0-base-Miniconda3-py39_4.9.2

      以上docker主要有以下配置:

      docker pull名字:
      registry.cn-hangzhou.aliyuncs.com/allen135681/easyml:ubuntu18.04-nvidia_cuda10.0-base-Miniconda3-py39_4.9.2
      
      以上docker镜像基于英伟达官网的镜像nvidia/cuda 10.0-base eb416c0a142e 2 months ago 109MB 该基础镜像os是ubuntu18.04
      
      以下内容是添加的内容:
      
      1,添加apt 阿里云源: 
      #添加阿里源 
      deb http://mirrors.aliyun.com/ubuntu/ focal main restricted universe multiverse 
      deb-src http://mirrors.aliyun.com/ubuntu/ focal main restricted universe multiverse 
      deb http://mirrors.aliyun.com/ubuntu/ focal-security main restricted universe multiverse 
      deb-src http://mirrors.aliyun.com/ubuntu/ focal-security main restricted universe multiverse 
      deb http://mirrors.aliyun.com/ubuntu/ focal-updates main restricted universe multiverse 
      deb-src http://mirrors.aliyun.com/ubuntu/ focal-updates main restricted universe multiverse 
      deb http://mirrors.aliyun.com/ubuntu/ focal-proposed main restricted universe multiverse 
      deb-src http://mirrors.aliyun.com/ubuntu/ focal-proposed main restricted universe multiverse 
      deb http://mirrors.aliyun.com/ubuntu/ focal-backports main restricted universe multiverse 
      deb-src http://mirrors.aliyun.com/ubuntu/ focal-backports main restricted universe multiverse
      
      2,apt update;apt install vim安装vim
      
      3,“/root/miniconda3/”目录下安装 Miniconda3-py39_4.9.2-Linux-x86_64.sh 自动配置环境变量,配置好后:conda 4.9.2 Python 3.9.1 pip 20.3.1

       

    5. 针对各种机器学习的库,可能都是在不同的操作系统版本,cuda版本,python版本下构建,必须要在这个版本上才能正常调用。所以需要模仿第4部分的思路构建多个类似的docker镜像文件。后续笔者会放出更多的针对各种机器学习库的docker镜像包。

    总结

    有了以上的镜像加持人人都可以成为合格的调包侠。快速复现baseline,SOTA等。

    展开全文
  • 最近看机器学习/人工智能相关顶级会议的论文,看到了 SOTA 模型,本来以为是一个很厉害的模型,但是网上完全查不到。今天会心一击,终于想到——SOTA 是 state-of-the-art 的缩写。 SOTA model:state-of-the-art ...

    最近看机器学习/人工智能相关顶级会议的论文,看到了 SOTA 模型,本来以为是一个很厉害的模型,但是网上完全查不到。今天会心一击,终于想到——SOTA 是 state-of-the-art 的缩写。

    SOTA model:state-of-the-art model,并不是特指某个具体的模型,而是指在该项研究任务中,目前最好/最先进的模型。

    SOTA result:state-of-the-art result,指的是在该项研究任务中,目前最好的模型的结果/性能/表现。

    借用一下评论区的类比,SOTA 模型就类似于某篇文章的作者是 “佚名” 。

    转自:https://blog.csdn.net/iteapoy/article/details/104435384

    展开全文
  • 作者|祝存超、陈牧昊等来源|机器之心时序知识的表征和推理是一个具有挑战性的问题。在本文中,来自国防科技大学等的研究者借鉴了自然语言生成(NLG)中的复制机制思路,并通过设计一种全新的基...

    作者|祝存超、陈牧昊等

     来源|机器之心

    时序知识的表征和推理是一个具有挑战性的问题。在本文中,来自国防科技大学等的研究者借鉴了自然语言生成(NLG)中的复制机制思路,并通过设计一种全新的基于时序知识图谱嵌入(TKGE)的模型来更有效地建模时序知识图谱。在多个公开时序知识图谱(TKG)基准数据集上,新模型 CyGNet 在未来事实(链接)预测任务上均实现了 SOTA 结果。

    知识图谱在知识驱动的信息检索、自然语言理解和推荐系统领域有着广泛的应用。一个知识图谱只拥有静态某一时刻的事实,而目前快速增长的数据往往表现出复杂的时间动态,即时序知识图谱(TKG)。具有代表性的时序知识图谱包括全球事件、语言和音调数据库(Global Database of Events, Language, and Tone, GDELT)和综合危机预警系统(Integrated Crisis Early Warning System, ICEWS)。下图 1 展示了 ICEWS 系统的一个外交活动记录子图。

    然而,现有建模时序知识图谱的方法忽视了时间事实的复杂演变(即许多事实在历史上反复出现)这个自然现象。例如:全球经济危机大约每隔 7 至 10 年就会定期发生一次;外交活动定期发生在两个建立关系的国家之间;东非动物每年 6 月都会进行大规模的迁徙。更具体地说,在整个 24 年的 ICEWS 数据集中(即 1995 年至 2019 年),超过 80% 的事件在过去已经发生过了。这些现象更进一步强调了利用已知事实预测未来事实的重要性。这也是本文的主要出发点。

    所以,为了能将时间事实的复杂演变现象融入并建模时序知识图谱,来自中国国防科技大学、美国南加州大学、法国计算与先进技术学院等机构的研究者相信更有效地利用历史上发生过的已知事实能够提高时间事实推断的精度。他们决定借鉴在自然语言生成中的复制机制(copy mechanism)思路,探索一种新的框架,通过有效学习时间重复模式以更精准地建模时序知识图谱。

    论文链接

    https://arxiv.org/abs/2012.08492

    代码链接

    https://github.com/CunchaoZ/CyGNet

    首先,研究者通过复制机制来探究时序事实的内在现象,并提出在时序知识图谱中学习推理未来事实的时候应参考已知事实。

    其次,研究者通过时间感知复制生成(copy-generation)机制创建了一个新的时序知识图谱嵌入模型CyGNet(Temporal Copy-Generation Network) 。该模型能够结合两种推理模式以根据历史词汇表或整个实体词汇表来进行推测,从而更符合上述 TKG 事实的演变模式。

    最后,研究者在 ICEWS18、ICEWS14、GDELT、WIKI 和 YAGO 等 5 个公开 TKG 基准数据集上进行了广泛的实验,结果表明 CyGNet 在未来事实(链接)预测任务上优于以往 SOTA TKG 模型。

    5 个数据集的统计。

    方法

    模型 CyGNet 举例

    如下图 2 所示,研究者以预测 2018 年 NBA 冠军球队为例,总体介绍了 CyGNet 模型的预测流程。

    可以看到,当预测 2018 年哪支球队获得了总冠军时,我们可以从历史得知一共有 18 支 NBA 球队曾经获得过冠军。CyGNet 首先获得每个实体的嵌入向量(见彩色柱),然后使用生成模式(generation mode)得到所有 30 支 NBA 球队获得冠军的概率(见绿色条形,条形越高表示概率越大),同时使用复制模式得到所有曾经得到过冠军的 18 支球队的概率。通过合并两个模块得到的概率,CyGNet最终预测「金州勇士(Golden State Warriors)」能够获得 2018 年 NBA 冠军。

    模型 CyGNet 结构

    CyGNet 各部分之间的联系如下图 3 所示,主要由复制模式和生成模式两个模块组成。前者从一个具有重复事实的特定历史词汇表中选择实体,后者从整个实体词汇表选择实体。

    在训练过程中,研究者按照时间顺序依次训练每个时间片的知识图谱。每训练一个新的时间片的知识图谱,他们都会将该时间片之前的所有历史重复事实加入到历史词汇表,如下图 4 所示(验证和测试的时候,研究者使用整个训练集的历史信息)。

    • 复制模式

    首先得到每个时间片的历史词汇表,该词汇表由多热指示向量表示,其中在历史出现过的实体记为 1,未出现过的实体记为 0.

    然后通过一层 MLP 获得一个索引向量 v_q:

    通过将中的未出现过的实体的值设为无限小的值(如 - 10000),然后通过简单的加和,将未出现过的实体概率值降到无限小。通过一层 softmax,即可将未出现过的实体概率无限逼近与 0,得到历史出现过的所有实体的概率值 p(c):

    • 生成模式(generation mode)

    生成模式通过一层 MLP,然后再接一层 softmax,即可得到整个词汇表的概率值:

    通过参数 alpha 调整复制机制和生成机制的权重,得到最终预测概率,概率最大的即 CyGNet 预测的实体:

    实验分析

    链路预测实验结果

    研究者在以下五个公开 TKG 基准数据集上进行了实验,如下表 2 和 3 所示。CyGNet 模型在预测未来事实的链路预测任务上的表现超过所有 baseline 模型,这说明了 CyGNet 可以通过结合复制机制和生成机制有效地建模时序知识图谱数据。

    控制变量实验结果

    CyGNet-Copy-only 是当 CyGNet 只使用复制模式,CyGNet-Generation-only 只使用生成模式,CyGNet-Generation-new 是 CyGNet 模型改变生成模式的词汇表,即生成模式只从全新的从未发生过的实体中选择。如下表 4 所示,每个模块都对模型产生了重要的作用。

    参数 \ alpha 的敏感度分析

    以 ICEWS18 为例,研究者分析了调整复制模式和生成模式权重的参数 alpha。实验结果证明 CyGNet 能有效的结合生成模式和复制模式。

    总结

    时序知识图谱预测在现实中是一个重要且有挑战性的问题。传统的方法大多侧重于通过对时序信息进行精细复杂的建模来提高预测的准确性。CyGNet 抓住时序实体经常性的重复出现这一现象,借鉴了自然语言生成领域中的「复制-生成」机制,设计了两个模块进行预测。两个模块的模型都很简单,却打败了传统的设计很复杂的模型,这充分说明了利用好时序实体重复出现特性的优势。然而对于这一特性不明显的数据,CyGNet 的表现可能未必同样出色。

    ????

    现在,在「知乎」也能找到我们了

    进入知乎首页搜索「PaperWeekly」

    点击「关注」订阅我们的专栏吧

    关于PaperWeekly

    PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

    展开全文
  • 点上方蓝字计算机视觉联盟获取更多干货在右上方···设为星标★,与你不见不散编辑:Sophia计算机视觉联盟 报道 |公众号CVLianMeng转载于 :机器之心论文链接:h...

    点上方蓝字计算机视觉联盟获取更多干货

    在右上方 ··· 设为星标 ,与你不见不散

    编辑:Sophia
    计算机视觉联盟  报道  | 公众号 CVLianMeng

    转载于 :机器之心

    论文链接:https://arxiv.org/abs/2003.08813

    论文代码:https://github.com/luogen1996/MCN

    该论文名为《Multi-task Collaborative Network for Joint Referring Expression Comprehension and Segmentation》,其首次提出单阶段的协同学习网络来同时解决指向性目标检测(Referring Expression Comprehension)和指向性目标分割(Referring Expression Segmentation)两个任务,而且在性能超越了 SOTAs 的条件下,达到了实时检测和协同检测的目的。

    论文的共同一作为厦门大学媒体分析与计算实验室(纪荣嵘 团队)硕士生罗根和博士后周奕毅,并由厦门大学媒体分析与计算实验室(纪荣嵘团队)和深度赋智合作指导完 成。以下是论文一作罗根对该论文做出的解读:

    背景 

    给定一句语言描述,Referring Expression Comprehension (REC) 旨在检测出与该描述相关的目标 bounding box,而 Referring Expression Segmentation (RES) 旨在分割出对应目标。REC 和 RES 长期以来被当成两个不同的 任务来看待并被设计出了大量的单任务网络,例如将语言模块嵌入到语义分割网络(RES)或者利用语言来检索目标(REC)。尽管其中有一些基于目标检索的多阶段网络,例如 MAttNet,能得到两个任务的结果,但究其本质仍是单任务的检索(ranking)网络,其多任务的结果归根于后端的 mask-rcnn。

    与此同时,这种依赖于预训练目标检测器先提特征后利用语言特征和其进行交互检索的方式不仅仅费时费力,而且有如下弊端:1)两个任务无法在多模态学习中相互促进;2)frcnn/mrcnn 特征丢失了预训练 CNN 网络的关系先验和空间先验;3)当 proposals 中没有候选目标,检索网络将毫无疑问会失败。

    动机

    我们认为过去的方法不是解决这两个任务的最佳范式。实际上,这两个任务之间高度趋近且能够互相促进。比如,RES 任务详细的标签能指导视觉和文本之间的对齐而 REC 任务得到更好的定位能力也能帮助 RES 确定目标。因此,很自然地能想到把这两个任务放到一个单阶段网络里学习,在保证速度和精度的同时,又能使两个任务的学习互相促

    进。并且这样的多任务尝试在计算机视觉领域已经非常成功,即实例分割(Instance Segmentation)。

    但与实例分割不同,这样的联合训练仍存在一个重大问题,即预测分歧 (Prediction Conflict). 预测分歧其实也会存在于实例分割当中,比如框出来的物体没有被分割出来,但对于任务本身的目的而言,这个问题不会显得那么严重。而这个问题在语言指导下的 RES 和 REC 中则会尤为突出:

    如上图所示,这样的错误放在 RES 和 REC 中是不可接受的。因此,在解决多任务学习的同时,我们还要考虑两个任务之间的协同性的问题,就此本文首次提出了一种高效且有效的单阶段协同学习网络。

    方法

    方法上可以分为网络结构和解决预测分歧的设计两块内容,整体框架如下图所示:

    1)网络结构:

    网络结构上,我们要尽可能保证两个任务之间能相互促进,同时各个部分的设计要复合两个任务的属性。首先我们对视觉特征和语言特征进行多模态多尺度的 fusion。在 REC 部分,我们采用了单尺度的预测并通过一条通路将浅层的多模态特征回传过来。这样的设计一方面考虑到浅层特征带有更多的纹理、颜色信息并且受到 RES 任务的直接监督因而能够促进语言语义的理解,另一方面由于 REC 任务中的 targets 较少,多尺度的预测往往在训练中会带来巨大的负样本数。而 RES 部分,则需要大的分辨率的感受野,因此网络的输出尺度增大同时配备了 ASPP 来增加感受野。

    此外,两个任务分支间的多次交互保证了在训练过程中能够互相促进。训练阶段,REC 分支回归出 bounding box 以及预测对应的 confidence score,其过程类似于 Yolov3。而 RES 分支则预测出关于目标的概率图,具体细节可以参见论文或者代码。

    2)解决预测分歧问题:

    预测分歧问题的出现,一方面是由于 RES 定位能力弱造成的(RES 无法精确定位特定的目标而只能得到分割像素的集合,但这不能保证该集合就只包含或者完整包含了指向性物体),另一方面也是由于 RES 的任务更加复杂(在目标不够显著的情况下,REC 仍能得到正确的 bounding box 而 RES 却不能),对训练和学习的要求更高。因此从这两个角度出发,我们考虑如何增强两个任务间的共同关注,同时减少两者之间的分歧。

    对此我们提出了协同能量最大化 (Consistency Energy Maximization) 的自监督方法来最大化两者在训练阶段的协同,同时提出了自适应软非定位区域抑制(Adaptive Soft Non-Located Suppression)来在测试阶段利用 REC 的定位能力帮助 RES 更好地定位和区分目标。以上两种方式几乎不会带来任何的额外训练/测试成本,同时能够大大增强两个任务的共同关注。

    协同能量最大化 (Consistency Energy Maximization) :

    首先考虑训练的问题就需要明确优化的目标,很显然我们要优化两个任务分支的共同关注,但由于两个任务的特征以及性质上有所差异,直接优化两路特征往往会很大程度上影响性能。一个更好的选择则是优化 Attention 特征。一方面 Attention 特征能够更直接地反映出两个任务的关注,另一方面通过残差连接作为额外信息也不会影响原有信息。

    这里的 Attention 可以为任意的 Attention,文中我们采用了过去的工作(GARAN Attention)来得到 RES 和 REC 的 Attention 特征分别定义为。接着我们将 Attention 特征投影到平面空间来获得 RES 和 REC 的空间关注(能量幅值):

    经过 Softmax 进行归一化后得到。接着我们考虑之间的关系(能量夹角),这里我们用余弦相似度来刻画:

    其中为常数项用于归一化。最终协同能量可以被定义为:

    最终我们通过最大化来使得两个任务在训练中协同,其中前三项能够最大化共同关注的能量,后两项能够约束非共同关注的能量。

    自适应软非定位区域抑制(Adaptive Soft Non-Located Suppression)

    为了在测试阶段能够更好的帮助 RES 定位目标,一个自然地想法是采取传统目标检测/实例分割中的 box crop 的方式,利用 REC 检测出来的 box 对 RES 预测出的概率分割图进行裁剪,接着再将其二值化。然而,这种硬性裁剪的方式及其容易将目标的部分也裁剪掉,从而导致性能的下降:

    对此,我们提出了一个 Soft 的方式来对框内和框外的分割图概率分布进行重新加权/抑制。给定一个 RES 分支预测的 mask, 以及 REC 预测的 bounding box,中的每个元素会按下式更新:

    其中and为加权因子和衰减因子,最后我们再对进行二值化,这样的结果比直接的裁剪方式具有更强的鲁棒性。更进一步地,要如何针对每个不同的样本确定呢?我们通过 bounding box 的 confidence score来对其进行建模。理由也很直观,隐式地建模了框内特征的显著性,通过我们能很好地得到不同样本的加权因子和衰减因此。文中我们采用了如下简单有效的线性关系建模:

    其中,,and为超参,来调节加权和衰减的幅度。

    实验

    实验设计上,为了量化地衡量 prediction conflict,我们设计了一个新的评价指标 Inconsistency Error(IE)。它用于计算 REC 结果与 RES 结果不一致的比例。简单来说,IE 计算了 REC 正确时 RES 错误以及 RES 正确时 REC 错误这两种情况在所有样本中的比例。

    实验部分,我们首先比较了网络结构,将我们设计的结构与几种可能的搭配以及单任务的网络进行比较,结果显示我们的网络设计在两个任务的性能上是最优的:

    接着,我们比较了不同的推理阶段后处理的方式,结果显示 Soft-NLS 以及 ASNLS 具有更好的鲁棒性,同时够大大降低 IE score。

    然后我们进行了控制变量实验,可以看到各个部分都能有效地改进性能,同时我们提出的两个设计能够大大降低 IE score。

    最后我们在两个任务上和目前的 SOTAs 进行了比较,结果显示,在两个任务上性能均领先于 SOTAs 的情况下,我们的模型还达到了实时的检测。

    展望

    实际上,RES 和 REC 只是 language+vision 任务中的一个重要分支,包括另外一些多模态任务在内,过去大家都非常青睐于 FRCNN 的特征,直觉上它可能会表现更好,但很多的事实表明它具有一些劣势并且性能上不会优于 Grid 特征。有兴趣的可以看一下 CVPR 2020 的一篇文章《In Defense of Grid Features for Visual Question Answering》(实验设计堪称典范)。

    因此 single-stage 可能会成为一个趋势。除此之外,很多多模态任务之间都有着千丝万缕的关系,如何求同存异可能会是比 bert 这一类预训练模型更值得研究的方向。这两点同时也是本文的两个非常重要的支撑点,也可能是未来进一步发展的方向。

    END

    声明:本文来源于联盟成员学习笔记,参考【】

    如有侵权,联系删除

    联盟学术交流群

    扫码添加联盟小编,可与相关学者研究人员共同交流学习:目前开设有人工智能、机器学习、计算机视觉、自动驾驶(含SLAM)、Python、求职面经、综合交流群扫描添加CV联盟微信拉你进群,备注:CV联盟  

    CVPR经典文章荐读

    CVPR 33篇:腾讯AI Lab实验室带你解读六大前沿方向!

    CVPR27篇:展现华为诺亚方舟实验室计算机视觉布局

    中科院VIPL实验室11篇CVPR解读:弱监督学习、视频分割、目标检测

    Google CVPR 2019成果!NAS-FPN:可扩展特征金字塔结构用于目标检测

    CVPR2019目标分割论文推荐(附论文及代码链接)

    谷歌CVPR成果!采用数据驱动方法通过YouTube视频生成深度图

    CVPR2019 Oral!伯克利、麻省理工GAN图像合成最新成果(附开源代码)!

    点个在看支持一下吧

    展开全文
  • NLP技术路线图是自然语言处理学习进阶的路线图(思维导图...涉及概率论与数理统计,机器学习,文本挖掘和自然语言处理四个部分,这几个部分是一个层次递进的过程。 概率论与数理统计 机器学习 文本挖掘 ...
  • 无监督和自监督学习,或者无人工标注数据的学习,这些都是机器学习领域长期存在的挑战。近期,BERT、GPT-2、RBERTa、T5 等 Transformer 模型以及其他变体在一系列语言任务上实现了最佳性能。然而,在生成用于图像...
  • 基于DL的NER模型成为主流,并取得了SOTA 深度学习的关键优势在于其强大的表示学习能力,通过向量表示和神经网络学习复杂的组合语义 深度学习可以通过对原始数据进行训练,自动发现分类或检测所需的语义表示 NLP监督...
  • 随着论文数量爆炸式增长,追踪机器学习领域的进展变得日益繁重。本文提出一种从论文中抽取研究成果的自动机器学习流水线 - AXCELL。AXCELL使用一些新的组件,其中包括表格分割子任务:学习相关结构知识以帮助抽取。 ...
  • 本文带来的是ECCV 2020 Oral 论文《Joint Disentangling and Adaptation for Cross-Domain Person Re-Identification》,提出一种全新的联合学习框架,首先对原始行人特征进行解藕,得到身份敏感信息(id-related)...
  • 2020-11-10

    2020-11-10 15:25:01
    https://www.jiqizhixin.com/sota 15大领域、127个任务,这里有最全的机器学习SOTA模型
  • 萧箫 发自 凹非寺量子位 报道 | 公众号 QbitAI想要入门机器学习,奈何领域的新论文太多,不知道该看哪一篇?自2017年以来,超越SOTA的方法天天有,但往往针对性非常强,不一定是...
  • 本文带来的是ECCV 2020 Oral 论文《Joint Disentangling and Adaptation for Cross-Domain Person Re-Identification》,提出一种全新的联合学习框架,首先对原始行人特征进行解藕,得到身份敏感信息(id-related)...
  • 自2017年以来,超越SOTA的方法天天有,但往往针对性非常强,不一定是颠覆机器学习圈的重要成果。 又回到了熟悉的话题:要想入行,还得看高引用经典论文。 这里整合了2012年到2016年的高引TOP 100论文,引用量要求...
  • 机器之心报道参与:思源、一鸣、李亚洲只要数据增强就能在 COCO 数据集上达到当前最优,谷歌大脑 Quoc Le 等研究者表明,目标检测中各种高大上的正则化方法,都不如自动数据增强来的实在。2018 年,谷歌大脑的研究者...
  • 点上方蓝字计算机视觉联盟获取更多干货在右上方···设为星标★,与你不见不散仅作学术分享,不代表本公众号立场,侵权联系删除转载于:机器之心AI博士笔记系列推荐周志华《机器学习》手推笔记...
  • 来源:TechWeb近日,腾讯优图实验室在模型压缩任务中获得创新性突破,提出的...相关论文(Pruning Filter in Filter)已被机器学习领域的国际顶级会议Conference on Neural Information Processing Systems(NeurIPS ...
  • 点击上方“机器学习与生成对抗网络”,关注"星标"获取有趣、好玩的前沿干货!这是份 论文速递。众所周知,GAN可分为无条件无监督式、条件监督式两大类;前者不需要标签,后者相...
  • 点蓝色字关注“机器学习算法工程师”设为星标,干货直达!谷歌最新的研究论文提出了一种Meta Pseudo Labels的半监督学习方法(https://arxiv.org/pdf/200...
  • 点击上方“机器学习与生成对抗网络”,关注"星标"获取有趣、好玩的前沿干货!今天不知在哪儿、看到了说这篇MSG-GAN已被CVPR2020接收,其实去年2019年5月还是...
  • 点蓝色字关注“机器学习算法工程师”设为星标,干货直达!FixRes是Facebook在19年提出的一个应用于图像分类的简单优化策略,论文名是Fixing the train-test r...
  • 点击上方“机器学习与生成对抗网络”,关注"星标"获取有趣、好玩的前沿干货!本文作者简介:丁霄汉作为清华大学博士生,导师为丁贵广副教授,研究方向是神经网络基本模型的设计与优...
  • 文章原创自微信公众号「机器学习炼丹术」 作者:炼丹兄 联系方式:微信cyx645016617 本篇文章主要讲解两个无监督2020年比较新比较火的论文: 论文名称:“Bootstrap Your Own Latent: A New Approach to Self-...
  • 点上方蓝字计算机视觉联盟获取更多干货在右上方···设为星标★,与你不见不散仅作学术分享,不代表本公众号立场,侵权联系删除转载于:机器之心AI博士笔记系列推荐周志华《机器学习》手推笔...

空空如也

空空如也

1 2 3 4 5
收藏数 96
精华内容 38
关键字:

机器学习sota