精华内容
下载资源
问答
  • 机器学习程序环境往往涉及到以下几个方面的问题: 硬件,intel x86,amd,arm等各种芯片 操作系统,windows,ubuntu,centos,mac等,考虑64位,32位等 显卡驱动,例如采用英伟达nvidia公司的GPU显卡,1070ti,...

    目录

    问题

    解决思路

    总结


    问题

    跑机器学习程序环境往往涉及到以下几个方面的问题:

    1. 硬件,intel x86,amd,arm等各种芯片
    2. 操作系统,windows,ubuntu,centos,mac等,考虑64位,32位等
    3. 显卡驱动,例如采用英伟达nvidia公司的GPU显卡,1070ti,1080ti等等显卡涉及到驱动,cuda,cudnn等的安装问题
    4. 开发语言:目前主流的机器学习实验开发语言是python,涉及到python版本管理问题,各种依赖包管理与隔离问题
    5. 主流机器学习框架,对前面 4个 问题的依赖不一样,例如tensorflow,pytorch,keras(tensorflow2.0已经直接包含了该库),nni等等,例如做得好pytoch给你列出了各个情况下的安装方法

    ,但是例如tensorflow并没有很好的告诉用户每个版本的tensorflow依赖哪个版本的os和cuda版本编译,导致很多时候用户安装环境都搞半天。

    解决思路

    针对以上问题:

    1. 我们一般采用intel x86的芯片。操作系统一般采用x86 64位的Linux操作系统,以前是ubuntu14.04现在ubuntu18.04 x64逐步开始流行起来,例如nvidia英伟达公司官方的docker镜像 “nvidia/cuda:10.0-base” 就默认是ubuntu18.04
    2. 大部分机器学习框架都已经支持在ubuntu18.04 linxu操作系统版本下的运行
    3. 宿主机器要装好驱动,例如宿主机为:安装一个最新版本的英伟达的显卡驱动“NVIDIA-Linux-x86_64-460.39.run”,具体各这驱动可以在英伟达官网上选择筛选,这里是1070ti显卡,linux生产稳定版本环境,“https://www.nvidia.cn/Download/index.aspx?lang=cn”其中选择:下载即可,对于国内网速慢原因我已经放了一份在百度云盘:“链接:https://pan.baidu.com/s/1b_FTjx4UsDhyWfNTfCjw3w 
      提取码:6666 ”,如果是windows环境安装最新的英伟达驱动即可,docker中采用镜像:“nvidia/cuda:10.0-base”,默认就把cuda10.0 cudnn装好了
    4. 在基于镜像“nvidia/cuda:10.0-base”的容器中安装 Miniconda3-py39_4.9.2-Linux-x86_64.sh 版本的miniconda,安装这个最新版本的好处在于可以用最小的安装空间得到基础的python各种版本和依赖库,例如:“conda create --name yolov5_py3.8 python=3.8”,安装好自动配置环境变量后,就可以打包成一个可复用的docker。打包容器为镜像,push到docker仓库的操作步骤:

      1,docker commit 76c643fb44ee registry.cn-hangzhou.aliyuncs.com/coggle/coggle:v1       #提交容器为镜像
      2,docker push registry.cn-hangzhou.aliyuncs.com/coggle/coggle:v1                                   #把这个新的镜像push到云端docker仓库中


      这里有个笔者已经做好的docker:registry.cn-hangzhou.aliyuncs.com/allen135681/easyml:ubuntu18.04-nvidia_cuda10.0-base-Miniconda3-py39_4.9.2  执行下面命令就可以本地下载好该docker。windows 10下可以用wsl docker技术拉取该镜像。
    5. sudo docker pull registry.cn-hangzhou.aliyuncs.com/allen135681/easyml:ubuntu18.04-nvidia_cuda10.0-base-Miniconda3-py39_4.9.2

      以上docker主要有以下配置:

      docker pull名字:
      registry.cn-hangzhou.aliyuncs.com/allen135681/easyml:ubuntu18.04-nvidia_cuda10.0-base-Miniconda3-py39_4.9.2
      
      以上docker镜像基于英伟达官网的镜像nvidia/cuda 10.0-base eb416c0a142e 2 months ago 109MB 该基础镜像os是ubuntu18.04
      
      以下内容是添加的内容:
      
      1,添加apt 阿里云源: 
      #添加阿里源 
      deb http://mirrors.aliyun.com/ubuntu/ focal main restricted universe multiverse 
      deb-src http://mirrors.aliyun.com/ubuntu/ focal main restricted universe multiverse 
      deb http://mirrors.aliyun.com/ubuntu/ focal-security main restricted universe multiverse 
      deb-src http://mirrors.aliyun.com/ubuntu/ focal-security main restricted universe multiverse 
      deb http://mirrors.aliyun.com/ubuntu/ focal-updates main restricted universe multiverse 
      deb-src http://mirrors.aliyun.com/ubuntu/ focal-updates main restricted universe multiverse 
      deb http://mirrors.aliyun.com/ubuntu/ focal-proposed main restricted universe multiverse 
      deb-src http://mirrors.aliyun.com/ubuntu/ focal-proposed main restricted universe multiverse 
      deb http://mirrors.aliyun.com/ubuntu/ focal-backports main restricted universe multiverse 
      deb-src http://mirrors.aliyun.com/ubuntu/ focal-backports main restricted universe multiverse
      
      2,apt update;apt install vim安装vim
      
      3,“/root/miniconda3/”目录下安装 Miniconda3-py39_4.9.2-Linux-x86_64.sh 自动配置环境变量,配置好后:conda 4.9.2 Python 3.9.1 pip 20.3.1

       

    6. 针对各种机器学习的库,可能都是在不同的操作系统版本,cuda版本,python版本下构建,必须要在这个版本上才能正常调用。所以需要模仿第4部分的思路构建多个类似的docker镜像文件。后续笔者会放出更多的针对各种机器学习库的docker镜像包。

    总结

    有了以上的镜像加持人人都可以成为合格的调包侠。快速复现baseline,SOTA等。

    展开全文
  • SOTA 模型,都包含着作者们的深刻见解。 机器翻译一直是非常吸引研究者的「大任务」,如果某些方法被证明在该领域非常有效,那么它很可能可以扩展到其它问题上。例如 Transformer,它出生于机器翻译家族,却广泛...

    机器之心原创

    作者:思源

    机器翻译,是一条漫漫长路;SOTA 模型,都包含着作者们的深刻见解。

    机器翻译一直是非常吸引研究者的「大任务」,如果某些方法被证明在该领域非常有效,那么它很可能可以扩展到其它问题上。例如 Transformer,它出生于机器翻译家族,却广泛应用于各种序列建模任务。

    其实机器翻译也走过一条漫漫长路,从早期基于规则与实例的方法,到基于统计的机器翻译,再到目前基于深度神经网络的翻译系统,我们探索了非常多的可能性与思路。有的在刚提出来就受到很多关注,有的则受限于计算资源,直到今天才展现出其强大的能力。

    1954 年,人类第一次尝试俄语到英语的自动翻译,这种基于规则的翻译第一次证明机器翻译是可行的。

    1954 年的机器翻译报道。

    自此之后,机器翻译主要历经了四种模式:

    • 基于规则的方法:它首先会将源语言句子解析为语法树,再经过一系列操作转化为目标语言的语法树,最后只需要根据目标语法树生成目标语句就行了。
    • 基于实例的方法:它的基本思想即将源语言句子分割为翻译实例中见过的短语片段,并根据相似性检索出与待翻句子片段相似的实例,最后对相似实例的翻译结果执行替代操作,我们就能得到源语短语片段的翻译结果。
    • 统计机器翻译:将源语言句子分割为短语片段,利用基于双语语料库学习到的短语翻译知识,将源语言短语转化为合适的目标短语。最后对目标短语片段进行合理的调序,并生成完整的译文。
    • 神经机器翻译:利用深度神经网络将原语言句子编码为一个低维向量,然后再直接解码为目标语言句子。

    其实早几年我们可能感觉机器翻译还需要大量的人工调整,包括表达方式、专业词汇、句式结构等等。但是随着 GNMT 等神经机器翻译模型的崛起,尤其是 Transformer 展现出强大的能力,体验上,机器翻译效果已经非常惊人了。很多时候只需要调整少数词或表达就能得到满意的结果,甚至在特定领域上能超过人类的专业翻译水平。

    那么,从 GNMT 到现在已经三年了,Transformer 的诞生也有两年了。我们可能很想知道,在最近的 NMT 研究中,到底有什么样的 SOTA 模型,翻译效果又有什么样的进步?

    在这篇文章中,我们将一探机器翻译 102 个模型、40 个数据集,从中找找 SOTA 模型到底都有什么。

    机器之心 SOTA 项目

    以前我们找 SOTA 模型,基本上只能靠背景知识与各种 Benchmark,顶多也是 Follow 一些收集顶尖模型的 GitHub 项目。但随着任务细分与新数据集的不断公布,这些只关注主流数据集的 Benchmark 就有些不太够用了。机器之心构建的

    SOTA 模型项目

    ,就旨在解决这个问题,我们可以直接从机器之心官网中找到 SOTA 平台,并搜索想要的顶尖模型。

    102个模型、40个数据集,这是你需要了解的机器翻译SOTA论文

     

    为了探索当前最佳的 NMT 模型,我们选了几个常见的数据集,并看看在 Transformer 之后,还有哪些激动人心的研究成果。我们发现不同的 NMT 模型都有其侧重的数据集,但最常用的还是 WMT 英法数据集或英德数据集。除此之外,我们也特意找了中英数据集,看看适合翻译中文的模型又是什么样的。

    如下是基于 WMT 2014 English-French 数据集的模型,展开后可以看到对应论文与代码。后面我们也会介绍 Transformer Big + BT 模型的核心思路,看看它如何继承了 Transformer 衣钵。

    102个模型、40个数据集,这是你需要了解的机器翻译SOTA论文

     

    除此之外,当我们选择 WMT French-English 数据集后,我们发现当前的 SOTA 模型 MASS 是微软亚洲研究院刘铁岩等研究者提出来的,它的基本思想承接于 BERT 预训练模型,是另一个非常吸引人的方向。

    最后在选择 NIST Chinese-English 数据集时,我们发现早一段时间冯洋等研究者提出的 Oracle Word 能获得当前 SOTA 结果,该研究也获得了 ACL 2019 最佳论文。

    总体而言,这三个 SOTA 模型都有着独特的优化方向,其中 Transformer Big + BT 探索用更多的单语数据强化模型效果、MASS 探索预训练语言模型与无监督的翻译方法、Oracle Word 则探索如何能弥补训练与推断间的鸿沟。

    Transformer Big + BT:回译是王道

    一般而言,训练 NMT 模型需要原文与参考译文这种成对的双语数据。但是,双语数据相对于网络上常见的大量单语数据要有限地多。在这一项研究中,研究者展示了如何通过仅提供我们想要翻译的语言的文本来提升模型的翻译性能,他们表明利用大量的此类数据可以大幅提升模型准确度。

    • 论文:Understanding Back-Translation at Scale
    • 论文地址:https://arxiv.org/pdf/1808.09381v2.pdf

    通过单语数据提升 NMT 模型最高效的方法之一是回译(back-translation)。如果我们的目标是训练一个英语到德语的翻译模型,那么可以首先训练一个从德语到英语的翻译模型,并利用该模型翻译所有的单语德语数据。然后基于原始的英语到德语数据,再加上新生成的数据,我们就能训练一个英语到德语的最终模型。

    该论文表示,让模型理解数据的正反翻译过程是非常重要的,通过采样故意不总是选择最好的翻译同样也能得到性能提升。如下动图展示了回译的主要过程,相当于我们用左边较少的数据集生成了右边较大的数据集,并在两种数据集上训练而获得性能提升。

    102个模型、40个数据集,这是你需要了解的机器翻译SOTA论文

     

    研究者表示,如果我们把 2.26 亿个反向翻译的句子添加到现有的包含 500 万个句子的训练数据中,我们就能大幅提升翻译质量。下图(左)显示了这一系统在标准 WMT』14 英-德基准测试集上的准确率,该系统在 16 个 DGX-1 机器上需要训练 22.5 小时。图中还显示了 DeepL 的准确率,这是一个依赖于高质量人工翻译的专业翻译服务,此前该服务在该基准测试上表现最佳。

    102个模型、40个数据集,这是你需要了解的机器翻译SOTA论文

     

    MASS:预训练必不可少

    BERT 或 XLNet 等预训练语言模型获得了非常好的效果,它们能学习到一些通用的语言知识,并迁移到下游 NLP 任务中。受到这种范式的启发,微软亚研刘铁岩等研究者提出了 MAsked Seq2Seq 预训练模型(MASS),用于基于编码器-解码器的语言生成任务,例如机器翻译。

    • 论文:MASS: Masked Sequence to Sequence Pre-training for Language Generation
    • 论文地址:https://arxiv.org/abs/1905.02450v5

    MASS 采用了编码器-解码器框架,并尝试在给定部分句子的情况下修复整个句子。如下所示为 MASS 的框架图,其输入句子包含了一些连续的 Token,并且中间会带有一些连续的 Mask,模型的任务是预测出被 Mask 掉的词是什么。相比 BERT 只有编码器,MASS 联合训练编码器与解码器,能获得更适合机器翻译的表征能力。

    102个模型、40个数据集,这是你需要了解的机器翻译SOTA论文

     

    MASS 整体框架,其中「_」表示被 Mask 掉的词。虽然关注自然语言理解的 BERT 只需要编码器就行,但这种关注语言生成的预训练模型需要同时保留编码器与解码器。

    正因为这种联合训练编码器-解码器的方法,MASS 非常适合拥有较少双语语料的翻译任务。此外,它在无监督翻译中也能得到非常不错的效果,甚至超过早期基于注意力机制的有监督翻译模型。

    在 MASS 中被 Mask 掉的词数量是可选的,如果输入只 Mask 掉一个词(k=1),那么它就等价于 BERT,因为解码器没有了额外的输入信息。如果 Mask 掉所有词,那么就等价于 GPT 这种标准的自回归语言模型,因为编码器完全没有输入信息。如果只 Mask 掉部分词,那么它就非常适合机器翻译这种生成任务了。

    102个模型、40个数据集,这是你需要了解的机器翻译SOTA论文

     

    MASS 的两种极限选择,它们分别等价于 BERT 与 GPT。

    MASS 这种架构可以强迫编码器理解输入句子的意义,并鼓励解码器从编码器中抽取有用的信息。此外,因为解码器预测的是连续的词,因此它也能构建更强大的语言建模能力。这种结构非常符合语言生成模型的要求,因此经过预训练后的模型只需要简要的微调就能有比较好的效果。

    在该论文的实验结果中,这种预训练模型在无监督机器翻译(只有单语数据)和少样本机器翻译中效果都非常出众。此外,即使在通常较为充足的双语数据中,MASS 的预训练也能获得更多的性能提升。

    Oracle Word:训练与预测之间有 Gap

    目前 NMT 的训练范式有两大局限性。首先在训练过程中,每预测一个译文词,它都会以已知的标注词作为约束,然而在推断中,模型只能以已知的预测词作为约束,这种不匹配就造成了模型在测试集的效果没那么好。其次在训练中,我们要求模型预测的译文必须与标注的译文一一对应,很明显这也会限制翻译的多样性。

    为了解决这两个问题,这项研究提出了在训练过程中用 Oracle Word 强化 Ground Truth Word。也就是说,在翻译模型的训练中,它不止会将标注数据作为指导,同时也会将预测结果作为指导。这很大程度上降低了训练和推断之间的差异,并大大提升了模型的预测效果。

    • 论文:Bridging the Gap between Training and Inference for Neural Machine Translation
    • 论文地址:https://arxiv.org/abs/1906.02448

    其中 Oracle Word 可以简单理解为模型预测出的候选词,它的选择方法有两种,即 word-level oracle 和 sentence-level oracle。

    102个模型、40个数据集,这是你需要了解的机器翻译SOTA论文

     

    词语级别的 Oracle Word 选择方法。

    • word-level oracle 的选择方法如图所示,在时间步为 j 时,获取前一个时间步模型预测出的分数。为了提高模型的鲁棒性,论文在预测分数基础上加上了 Gumbel noise,最终取分数最高的词语作为此时的 Oracle Word。
    • sentence-level oracle 的选择方法则是在训练时的解码阶段中,使用束搜索的方法,选择前 k 个备选句子,然后计算每个句子的 BLEU 分数,最终选择分数最高的句子。这种方式选择出来的句子就可以作为模型的预测结果,并指导模型继续学习。

    现在有了候选词,那么我们就要考虑如何将它们加入标注词,并共同训练模型。这篇研究的思路非常精炼,即在训练过程中,随机选择两者中的一个作为模型所需的信息。具体而言,如果模型要预测译文的第 j 个词,那么模型会以 p 的概率选择 Oracle Word、以 1-p 的概率选择 Ground Truth Word 作为所需的第 j-1 个译文词。

    现在,在训练中,只需要令概率 p 递增,那么相当于从传统的训练过程逐步迁移到推断过程,这两者之间的鸿沟也就不存在了。

    如下所示为该项研究在 NIST Chinese-English 数据集上的效果,其中 MT03 表示 NIST 2003 作为测试集的效果。我们可以看到,不论是将 Oracle Word 加到 RNN 架构还是加到 Transformer 架构,它都能得到性能上的提升(BLEU 值)。

    102个模型、40个数据集,这是你需要了解的机器翻译SOTA论文

     

    最后,以上 3 个 SOTA 模型只是从不同的角度提升机器翻译效果,SOTA 项目中还能找到更多优秀的模型,它们都有各自的特点与关注的角度。总的而言,理解机器翻译最前沿的思想,这些 SOTA 模型都是要了解的,我们需要从各个角度看看神经机器翻译的潜力到底怎么样。

    展开全文
  • 机器学习SOTA模型大集合SOTA模型参考链接 SOTA模型 SOTA,全称「state-of-the-art」,用于描述机器学习中取得某个任务上当前最优效果的模型。例如在图像分类任务上,某个模型在常用的数据集(如 ImageNet)上取得了...

    机器学习state-of-the-art methods模型大集合


    SOTA模型

    SOTA,全称「state-of-the-art」,用于描述机器学习中取得某个任务上当前最优效果的模型。例如在图像分类任务上,某个模型在常用的数据集(如 ImageNet)上取得了当前最优的性能表现,我们就可以说这个模型达到了 SOTA。

    如果你是一位机器学习研究者,需要持续了解最前沿研究进展;或者你希望将最前沿的机器学习研究应用于自己从事的领域。
    你最需要的是从论文海洋中找到SOTA 论文。

    SOTA模型」是机器之心的一个产品,致力于将机器学习 SOTA 研究一网打尽。通过「SOTA模型」,你可以根据自己的需要寻找机器学习对应领域和任务下的 SOTA 论文,而且平台会提供论文、模型、数据集和 benchmark 的相关信息。


    参考链接

    关于「SOTA模型」的详细信息,请参考:15大领域、127个任务,这里有最全的机器学习SOTA模型

    展开全文
  • 面试刷题的书哪个好与 XAI(可解释人工智能)相关的有趣资源 研究人员 奈穆尔汗, 范哲权,, Duen Horng (Polo) Chau,,, Hima Lakkaraju,, 亚历克斯·恩德特, 一直金, 刘世霞, 安德烈亚斯·霍尔辛格, ...Steinhard
  • 点上方计算机视觉联盟获取更多干货仅作学术分享,不代表本公众号立场,侵权联系删除转载于:专知AI博士笔记系列推荐周志华《机器学习》手推笔记正式开源!可打印版本附pdf下载链接人脸检测是许多人...

    点上方计算机视觉联盟获取更多干货

    仅作学术分享,不代表本公众号立场,侵权联系删除

    转载于:专知

    AI博士笔记系列推荐

    周志华《机器学习》手推笔记正式开源!可打印版本附pdf下载链接

    人脸检测是许多人脸识别和人脸分析系统的关键第一步。早期的人脸检测方法主要是基于从局部图像区域手工提取特征的基础上构建分类器,如Haar级联和梯度定向直方图。然而,这些方法还不够强大,无法对来自不受控制环境的图像实现高精度。

    随着2012年深度神经网络在图像分类方面的突破性工作,人脸检测的范式发生了巨大的转变。受计算机视觉中深度学习的快速发展的启发,在过去的几年里,许多基于深度学习的框架被提出用于人脸检测,在准确性方面取得了显著的提高。

    在这项工作中,我们提供了一些最具代表性的基于深度学习的人脸检测方法的详细概述,将它们分成几个主要类别,并展示了它们的核心架构设计和流行基准上的精度。我们还描述了一些最流行的人脸检测数据集。最后,我们讨论了当前该领域存在的一些问题,并对未来的研究提出了建议。

    引言

    人脸检测是人脸识别、人脸属性分类、人脸编辑、人脸跟踪等任务的重要早期步骤,其性能直接影响到[2]、[3]等任务的有效性。尽管在过去的几十年里,人脸检测已经取得了巨大的进步,但在野外准确和高效的人脸检测仍然是一个公开的挑战。这是由于姿态变化、面部表情、比例、照明、图像失真、脸部遮挡等因素造成的。与一般的目标检测不同,人脸检测的特征是在纵横比上的变化较小,但在尺度上的变化大得多(从几个像素到几千像素)。

    早期的人脸检测工作主要基于经典方法,即从图像(或图像上的滑动窗口)中提取手工制作的特征,并将其输入分类器(或分类器集合)来检测可能的人脸区域。两个标志性的经典人脸检测工作是Haar级联分类器[4]和直方图的方向梯度(HOG)后的SVM[5]。这些工作代表了当时技术水平的巨大进步。然而,对于图1所示的具有多种变体因子的具有挑战性的图像,人脸检测精度仍然有限。

    随着深度学习在计算机视觉领域的巨大成功,研究人员在过去的6-7年中提出了几种有前景的模型体系结构。受级联分类器思想的启发,许多早期基于深度学习的模型都是基于级联-CNN架构的。但随着几种用于通用目标检测的新架构的引入,许多基于深度学习的最新模型已经转向单次检测、基于R-CNN的架构、特征金字塔网络(FPN)模型等。到2000年左右,人脸检测研究的主要研究包括Yang等人的[7]、Rowley等人的s[8]、Hjelmas和Low[˚9]。Zhang调研了未来十年人脸检测的进展,大约到2010年[10]。Zafeiriou等人[11]调研了大约在未来五年的人脸检测研究,接近深度学习浪潮的开端,大约在2015年。他们的结论之一是,“即使允许出现相对较多的误报(约1000个),仍有大约15-20%的面孔没有被检测出来。”“我们的调研从[11]结束的地方开始,涵盖了从深度学习浪潮开始到当前时间,人脸检测的快速进展。

    本文综述了基于深度学习的人脸检测的最新文献,包括50多种检测方法。它提供了对这些方法的不同方面的见解的全面调研,包括训练数据、网络架构的选择、损失功能、训练策略和他们的主要贡献。根据他们对人脸检测的主要技术贡献,我们将这些工作分为以下几类: 

    1) 基于Cascade-CNN的模型

    2) 基于R-CNN和Faster-RCNN的模型

    3) Single Shot 模型

    4) 基于特征金字塔网络的模型

    5) 其他模型

    本次综述的其余部分组织如下: 第2节概述了流行的深度神经网络(DNN)架构,它是许多现代人脸检测算法的基础。第3节回顾了最重要的最先进的基于深度学习的人脸检测模型,以及它们的主要技术贡献。第4节总结了最流行的人脸检测基准,它们的大小和其他特征。第5节列出了评估基于深度学习的人脸检测模型的流行指标,并列出了模型在这些数据集上的性能。第6节讨论了基于深度学习的人脸检测的主要挑战和机遇。第7节给出了我们的结论。

    2015年至2021年最流行的基于深度学习的人脸检测模型。

    详细论文请在后台回复20210405   获取pdf版本

    end

    我是王博Kings,一名985AI博士,华为云专家/CSDN博客专家,单个AI项目在Github上获得了2000标星,为了方便大家交流,附上了联系方式。

    这是我的私人微信,还有少量坑位,可与相关学者研究人员交流学习 

    目前开设有人工智能、机器学习、计算机视觉、自动驾驶(含SLAM)、Python、求职面经、综合交流群扫描添加CV联盟微信拉你进群,备注:CV联盟

    王博Kings 的公众号,欢迎关注,干货多多

    王博Kings的系列手推笔记(附高清PDF下载):

    博士笔记 | 周志华《机器学习》手推笔记第一章思维导图

    博士笔记 | 周志华《机器学习》手推笔记第二章“模型评估与选择”

    博士笔记 | 周志华《机器学习》手推笔记第三章“线性模型”

    博士笔记 | 周志华《机器学习》手推笔记第四章“决策树”

    博士笔记 | 周志华《机器学习》手推笔记第五章“神经网络”

    博士笔记 | 周志华《机器学习》手推笔记第六章支持向量机(上)

    博士笔记 | 周志华《机器学习》手推笔记第六章支持向量机(下)

    博士笔记 | 周志华《机器学习》手推笔记第七章贝叶斯分类(上)

    博士笔记 | 周志华《机器学习》手推笔记第七章贝叶斯分类(下)

    博士笔记 | 周志华《机器学习》手推笔记第八章集成学习(上)

    博士笔记 | 周志华《机器学习》手推笔记第八章集成学习(下)

    博士笔记 | 周志华《机器学习》手推笔记第九章聚类

    博士笔记 | 周志华《机器学习》手推笔记第十章降维与度量学习

    博士笔记 | 周志华《机器学习》手推笔记第十一章特征选择与稀疏学习

    博士笔记 | 周志华《机器学习》手推笔记第十二章计算学习理论(上)

    博士笔记 | 周志华《机器学习》手推笔记第十二章计算学习理论(下)

    博士笔记 | 周志华《机器学习》手推笔记第十三章半监督学习

    博士笔记 | 周志华《机器学习》手推笔记第十四章概率图模型

    点个在看支持一下吧

    展开全文
  • 机器学习的应用需要大量的人工干预,这些人工干预表现在:特征提取、模型选择、参数调节等机器学习的各个方面。而AutoML将这些与特征、模型、优化、评价有关的重要...无需专家知识即可自动使用深度学习SOTA方法; 轻松
  • 最近看机器学习/人工智能相关顶级会议的论文,看到了 SOTA 模型,本来以为是一个很厉害的模型,但是网上完全查不到。今天会心一击,终于想到——SOTA 是 state-of-the-art 的缩写。 SOTA model:state-of-the-art ...
  • 该存储库为所有机器学习问题提供了最新技术(SoTA)结果。 我们会尽力使此存储库保持最新状态。 如果您确实发现问题的SoTA结果过时或缺失,请提出该问题(具有以下信息:研究论文名称,数据集,指标,源代码和年份...
  • 在以前,这几个环节都很可能是在同一台电脑上完成的,但现在不行了,尤其是深度学习时代,要想设计出一款好的机器学习模型,达到SOTA的效果,是一件十分烧脑的事情,不仅烧人脑,也烧电脑。现在的模型太复杂,单一一...
  • 2019-04-25 22:43:48 关于机器学习,你应该知道的3个热门专业术语 原创: 吴郦军、罗人千 ...为了帮大家节省查阅晦涩难懂的论文的时间,我们邀请微软亚洲研究院机器学习组实习生吴郦军、罗...
  • 导语:ICLR 2020 图机器学习全面分析 2019年绝对是图机器学习(GML)大火的一年,凡是学术会议,图神经网络的会场总会爆满。 图机器学习的研究之所以在2019年突然变得火热,原因在于,在前几年尽管深度学习在...
  • AI 科技评论按,近日,哥伦比亚大学计算机科学专业博士生 Oscar Chang 发博阐述了关于机器学习的七个误解,AI 科技评论将原文编译整理如下。 在了解深度学习的过程中盛传着 7 个误解,它们中很多都是以前固有的偏见...
  • 点击上方“AI遇见机器学习”,选择“星标”公众号重磅干货,第一时间送达来自 | Github 整理 | 深度学习这件小事机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析...
  • 自动机器学习AutoML

    千次阅读 2020-11-01 09:24:09
    研究背景:随着深度神经网络的不断发展,各种...自此,人工智能又有了更进一步的发展,人们开始探索如何利用已有的机器学习知识和神经网络框架来让人工智能自主搭建适合业务场景的网络,人工智能的另一扇大门被打开。
  • 作者丨科技猛兽编辑丨极市平台导读本文首先对模型压缩进行了综述,论述目前深度学习存在的挑战,同时对三种高效自动机器流水线方法ProxyLessNAS、AMC和AMC进行了详细的介绍。最后...
  • 2019-12-15 05:44:49 作者 | Michael Galkin 编辑 | 晓凡,Camel 本文来自德国Fraunhofer协会...必须承认,图的机器学习(Machine Learning on Graphs)已经成为各大AI顶会的热门话题,NeurIPS 当然也不会...
  • 提示:自动机器学习(AutomatedMachine Learning, AutoML)技术是当前机器学习领域热点研究和迅速发展的方向之一,已被证明能够在多个领域达到或超过人类专家手动调参的效果,国内外许多头部公司纷纷将AutoML技术集成...
  • 点上方蓝字人工智能算法与Python大数据获取更多干货在右上方···设为星标★,第一时间获取资源仅做学术分享,如有侵权,联系删除转载于 :机器之心在生产环境中部署机器学习模型是一个复...
  • 机器之心报道参与:小舟在生产环境中部署机器学习模型是一个复杂的过程,需要考虑诸多因素,也存在很多挑战。近日,来自剑桥的研究者梳理了该流程常见的问题。近年来,机器学习在学术研究领域和实际应...
  • 近日,哥伦比亚大学计算机科学专业博士生 Oscar Chang 发博阐述了关于机器学习的七个误解。原文编译整理如下。 在了解深度学习的过程中盛传着 7 个误解,它们中很多都是以前固有的偏见,但在最近又被新的研究提出了...
  • 论文复现一直是机器学习领域的难题,虽然最近多个学术会议提倡大家提交代码,但解决论文复现问题仍然任重而道远。在试图复现机器学习论文时,我们经常遇到哪些问题呢?新加坡机器学习工程师 Derek Chia 对此进行了...
  • 来源:深度学习爱好者 本文约3300字,建议阅读10分钟本文介绍了作者这些年遇到的一些机器学习里的bias的一些处理方法。 机器学习的bias对性能影响很大,常常会使一个线下优秀的模型...
  • 来源|AI科技评论如今,越来越多的人希望入行人工智能,而进入AI领域的直接途径是从事机器学习职业。但是,机器学习从业人员应该怎么规划职业?造就成功的机器学习职业生涯有哪些关键因素?作为曾...
  • 什么是机器学习(进阶过度篇)? 01 引言 前面学习了那么多基本的雏鸟AI小知识,现在也应该开始尝试张开自己的翅膀了,毕竟总有一天要尝试离开鸟妈妈的怀抱!!这几天,开始过度性的和小伙伴们探讨一下深入式的...
  • 理工科生从大三往后,往往已经具备了学习机器学习和深度学习的基础了,此时已经具备了高等数学、概率统计和线性代数的初步知识,本篇文章主要想描绘从此刻开始,到一个合格的熟练掌握机器学习和深度学习知识的专业...
  • Uber借助机器学习在模拟市场中获得Insights   Uber市场模拟团队构建了一个模拟平台,该平台是一个具有骑手和驾驶员伙伴的模拟环境。该环境模仿了现实世界中的场景。它使用基于代理的离散事件模拟器。该平台使...
  • Python机器学习算法实现Author:louwillMachine Learning Lab 第17讲我们谈到了竞赛大杀器XGBoost,本篇我们来看一种比XGBoo...
  • 磐创智能-专注机器学习深度学习的教程网站http://panchuang.net/ ...【导读】:GitHub是数据科学家希望从人群中脱颖而出的宝贵平台,拥有来自顶尖...本文为大家总结了近期最热门的机器学习项目top5。欢迎大家点击上方...
  • 点击上方“小白学视觉”,选择加"星标"或“置顶”重磅干货,第一时间送达 本文转自|机器学习算法那些事要不要读博?读博值不值得?如何才能顺利完成博士生涯,并为职业发展打好基...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 5,627
精华内容 2,250
关键字:

机器学习sota