精华内容
下载资源
问答
  • 来源:C114通信网、北京物联网智能技术应用协会在近日举行的“第十六届CCF全过高性能计算学术年会”上,中国工程院副院长、中国科协副主席、中国工程院院士陈左宁发表了题为《人工智能进展对算...

    来源:C114通信网、北京物联网智能技术应用协会

    在近日举行的“第十六届CCF全过高性能计算学术年会”上,中国工程院副院长、中国科协副主席、中国工程院院士陈左宁发表了题为《人工智能进展对算力需求分析》的演讲。在演讲中,她阐述了人工智能模型和算法的七大发展趋势。

    陈左宁表示,经典的HPC的算力环境可支持现有人工智能的模型算法,但性能功耗比和性价比都较低,并非最适合的,需要创新体系结构和软件架构。

    据介绍,人工智能的发展经历了三个历程。从符合主义到连接主义再到行为主义。符号主义主要是用公理和逻辑体系搭建一套人工智能系统。连接主义源于仿生学,主张模仿人类的神经元,用神经网络的连接机制连接人工智能。行为主义控制论意为假设智能取决于感知和行动。

    陈左宁称,三大流派日趋融合,协同发展,人工智能的核心特征之一是“关系”。

    据介绍,“关系”计算的表现形式有三种。一是连接关系,神经网络中神经网元间的连接。反向传播算法中的梯度传播;进化算法中的变异。二是逻辑关系。RNN中的循环连接以及知识图谱中的关联关系。三是因果关系,贝叶斯、决策树以及强化学习中的控制连接。

    在演讲中,陈左宁详细介绍了人工智能模型和算法发展的七大趋势。

    趋势一、向无监督的方向发展。主要表现为:适应“小数据”,减少标注需求,减少计算开销。要向无监督方向发展要经历几个阶段。人工智能主动学习阶段,算法主动提出标注请求,将一些经过筛选的数据提交给专家标注。迁移学习阶段,增强训练好的模型,解决目标领域中仅有的少量有标签样本数据的问题。强化学习阶段,用agents构成系统来描述行为并给予评价和反馈学习。

    趋势二、可解释(XAI)越来越重要。深度学习如何进一步设计算法和参数,提高泛化能力,需要模型算法可解释。对抗样本导致模型失效,训练数据不可理的被局部放大。模型愈加复杂,失去了可调式性和透明度。

    “此时,对于技术的需求就是将可解释技术融入软件环境中去。有两个方法。第一为现有软件框架增加可解释技术接口。提供事后解释的基本技术,比如可视化能力,局部数据分析,特征关联等。现有的软件原生支持多种可解释算法。提供算法或指标评估模型的可解释能力。第二是“人—AI”系统结合。以人为中心,由决策理论驱动的XAI的概念框架。” 陈左宁表示。

    趋势三、人工智能的自学习、自演化。这个过程有三个阶段。一是自动化机器学习,主要是利用数据驱动方式来做决策。而是限制约束条件的AutoML。三是不舍初始条件,搜索空间极大丰富的自演化AutoML。这一趋势对于技术的需求有计算框架支撑、大算力支撑以及辅助设备支撑。

    趋势四、多种算法、模型的有机结合。单一的算法或模型难以解决实际问题。比如问题分解和多种模型有机组合。人工智能模型的发展希望融入多种技术来解决已有问题。比如,通过贝叶斯技术增强因果关系分析;通过数据生成技术减少标注数据需求;通过AutoML技术提高搜索和挖掘能力。与此同时,人工智能的应用流程也越来越复杂,如,不同流程设计的设备以及环境多样;需要不同的算法和模型组合。多种算法、模型的有机组合的需求是计算存储等可拓展能力。基础软件能力提升,支持复杂模型,不同类型软件的协同和交互。

    趋势五、人工智能应用需求需要关注全生命周期。全周期不同人物具有不同时间,空间和计算需求。全生命周期都要考虑可解释、公平等需求。

    趋势六、分布式、分散式的需求越来越突出。首先,大型、复杂模型,海量数据需要并行,分布式计算。其次,联邦学习等分散场景需要分布式ML原生算法。使多个参与者可以在不共享数据的情况下构建通用的,健壮的机器学习模型,从而解决关键问题。不同节点上的数据集异构(分布不相同),大小可跨越几个数量级。节点可能不可靠,节点之间的互联可能不稳定。类别优集中式、分散式以及迭代式。这一趋势对安全性、架构、提升效率和效用、健壮性有需求。

    趋势七,深度推理。从计算到感知再到认知和意识,人工智能模型和算法的发展趋势七是认知理论的进一步突破。这一趋势的需求有效应对多种形式的不确定性。其中概率计算根据不同精度计算需求设计硬件。根据数据和计算的稀疏分布设计。另外,这一趋势的需求还有类脑、仿脑体系结构以及模拟计算。

    陈左宁总结说,总体来说,AI趋势对算力的需求主要是对软件栈的需求。从AI发展趋势的特点来看,关系、概率、近似计算更突出;不要求高精度、高容错;节点上计算简单;人在环路中需求明显。因此,对软件栈的需求更加多样,比如复杂、动态、分布式和分散;支撑新场景以及架构创新。目前AI算法仍在基本计算模式中。

    陈左宁坦言:“未来的复杂问题可能会超越此模式,目前的模型和算法主要是低精度张量计算。”

    未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

      如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

    展开全文
  • 模型训练算法这几个概念是机器学习深度学习的最基础,现在看来有必要说明一下。以下所有解释均仅限于人工智能领域。模型模型是什么?通常形容AI语境下的模型一词时,比较多的情况会类比数学...

    模型、训练、算法这几个概念是机器学习和深度学习的最基础,现在看来有必要说明一下。 以下所有解释均仅限于人工智能领域。

    模型

    模型是什么?通常形容AI语境下的模型一词时,比较多的情况会类比数学领域的函数。不过个人感觉,那样比较容易跑偏,不如我们先姑且将它理解成是“一个程序”吧。

    模型这种“程序”接受输入,经过一系列内部处理,给出输出——在这一点上它和普通意义上的程序一样。

    模型和普通程序不一样的是:后者是人类直接编写出来的,而前者则是经有另外一个人类编写的训练程序训练出来的。

    从某种意义上可以说,模型是程序产生的程序

    训练程序和算法

    这个训练模型的程序(简称训练程序),一般情况下是实现了某一种训练算法,这个算法接受输入的数据,进行某些运算,运算的结果就形成了模型。

     

     

    训练程序运行的过程就叫做训练,模型是训练程序的输出,训练的结果

    概念间的关系

    说到这里,我们已经涉及到了四个概念:A.普通程序;B. 模型;C. 训练程序;和D.算法。

    它们之间的关系见下图:

    普通程序、模型和训练程序的共性是:接受输入数据;内部处理输入的数据后生成输出数据;输出输出数据。

    但是它们仨又有所不同

    1.      A(普通程序)和C(训练程序)都是人类编写出来的;而B(模型)则是C运行的结果(输出)。

     

    2.      A和B对输入输出的处理是静态的;而C对输入输出的处理是动态的

    静态 vs 动态

    关于不同之处的第2点——“静态处理输入输出”和“动态处理输入输出”的区别,我们需要特别解释一下。 

    静态是指:对于A(普通程序)和B(模型)而言,给它们一个特定的输入,它们就会给出一个特定的输出。

     

    A和B能够处理的数据非常多,但就算是各自接受一百万份输入,每份输入对应的输出都是既定的,并不会因为A或B之前已经处理了其他的数据而产生不同的输出。


    动态则是说:C(训练程序)在获得不同的输入后会输出不同的B(模型)。

    训练、训练数据与模型

    训练程序在获得不同的输入数据后输出不同的模型——这是什么意思?

    来看个例子:

    我们用某个训练程序 c0 训练了包含2M样本的数据集Dataset_1,生成了一个模型b1。

    后来,我们又获得了包含另外1M样本的数据集Dataset_2。既然又有了新数据,自然就想把Dataset_2也用于 c0 的训练。那么我们可以:

    方式 i)用Dataset_2从头开始训练,可以获得模型b2;

    或者,方式 ii)将b1作为预训练模型,在它的基础上,用Dataset_2继续训练,获得模型b1’。

     

    按照上述两种方式,c0同样是处理Dataset_1+ Dataset_2共3M的样本数据,但因为具体的训练方式(运行c0的方式)不同,输出的结果是不同的。

    方式 i)输出的两个模型:b1是基于2M样本获得的,b2是基于1M样本获得的。

    方式 ii)输出的两个模型:b1基于2M样本,而b1’ 则是基于3M样本!

    两种方式中的b1是一样的,b2和b1’ 却差距颇大。

    b2仅具备从Dataset_2中学习到的知识;而b1’ 除了Dataset_2,还学习了Dataset_1中的知识——这一部分不是通过直接的训练,而是通过已经训练出来的b1间接得到的。相当于b1先学习了Dataset_1中蕴含的知识,再移交(transfer)给了b1’ .

    顺便说一下,方式 ii)又叫做迁移学习(Transfer Learning),是不是有点耳熟?

    造成这样差异的原因不是数据,也不是训练程序本身,而是训练的方式不同。这就是训练程序的特色啦!

    训练算法及其实现

    A,B和C虽然有所不同,但基本上还是同一个层次的概念——都是程序嘛。

    D和它们又有什么关系呢?

    简单来说,D(算法)是C(训练程序)的灵魂;或者说,D是C的原理,而D是C的具体实现。

    如果你还要继续问:什么是原理,什么又是实现?

    原理就是从抽象层面上来讲一件事情应该怎么做,而实现则是指在现实中把这件事情做出来。

    原理是策略、方法、流程;而实现是落实执行。

    如果还不明白,那就等我再写篇文章来专门说明吧……

    “众智汇”愿景

    尽职尽才,允公允能 —— 本社群不定期举行线上分享,组织群友分享知识、经验、资源,以达到让我们每个人的职业生涯得到最大程度的发展的目的

    欢迎扫面下列二维码关注“悦思悦读”公众微信号

    展开全文
  • v4目标检测算法详解及预训练模型使用与自己训练模型一、YOLO简介二、YOLO v3三、YOLO v4四、预训练模型使用(基于Darknet的GPU版本)五、自己训练模型(使用GPU) 一、YOLO简介 YOLO是目前比较流行的目标检测算法,...

    一、YOLO简介

    YOLO是目前比较流行的目标检测算法,结构简单但是功能强大。有了它,你就能成功检测出许多目标物体。本文主要介绍YOLO v3和v4及其模型使用方法,下面给出源码地址:

    GitHub地址链接:https://github.com/AlexeyAB/darknet
    YOLO官网:https://pjreddie.com/darknet/yolo/

    更详细的内容请看原论文:

    [1] Joseph Redmon, Ali Farhadi. YOLOv3: An Incremental Improvement.
    [2] Alexey Bochkovskiy, Chien-Yao Wang, Hong-Yuan Mark Liao. YOLOv4: Optimal Speed and Accuracy of Object Detection.
    YOLO官方图片

    二、YOLO v3

    **YOLO(You only look once)**是目前比较流行的实时目标检测算法,结构简单但是功能强大。YOLO v3以v1和v2为基础做出了一些改进,主要有:网络结构调整为53个卷积层,称为darknet-53;利用多尺度特征进行对象检测;对象分类使用logistics回归等。
    YOLO3借鉴了残差网络结构,形成更深的网络层次,以及多尺度检测,提升了mAP及小物体检测效果。如果采用COCO mAP50做评估指标,YOLO3的表现相当惊人,如下图所示,在精确度相当的情况下,YOLOv3的速度是其它模型的3、4倍。
    YOLO v3性能

    三、YOLO v4

    YOLO v4在v3的基础上又有了大量的改进,包括:提出了一种高效而强大的目标检测模型;验证了SOTA的Bag-of Freebies 和Bag-of-Specials方法的影响;改进了SOTA的方法,使它们更有效,更适合单GPU训练等。
    与众多目标检测算法比较起来,YOLO v4在速度和准确性方面都有很好的优势,如下图所示:
    YOLO v4性能

    四、预训练模型使用(基于Darknet的GPU版本)

    通过GPU运行有许多的优势,所以这里只介绍基于Darknet框架的GPU版本的方法,请小伙伴们自行安装好CUDA和cuDNN。darknet在深度学习方面有许多优势,包括:
    (1)darknet完全由C语言实现,没有任何依赖项,而且可以使用OpenCV,但只是用其来显示图片、为了更好的可视化。
    (2)darknet支持CPU和GPU,使用GPU计算效果更佳,速度更快。
    如果是检测视频,那么还需要安装好OpenCV
    我的配置:Win10+CUDA10.1+cuDNN7.6.4+OpenCV3.4.1

    1.下载项目
    点击这里进入Github下载项目

    2.在Windows 10上通过Visual Studio 2017编译
    ①找到并打开darknet.vcxproj,将里面两处含有**“CUDA”片段的代码改成相应的版本,我改为10.1**。(如果你的CUDA版本不是10.1,那么请改成对应的版本)
    ②打开darknet.sln,选择文件属性,删除CUDA C/C++中的;compute_75,sm_75
    ③在visual studio 2017中编译环境设置为Release x64,然后点击“生成”按钮。编译成功的话,在x64文件夹中就会出现darknet.exe文件。

    3.使用Command命令行运行
    使用基于darknet框架的YOLO算法预训练模型(基于COCO训练集训练得到),需要配置weights文件和cfg文件。在实验中,我使用的是YOLO v3和YOLO v4算法,所以需要下载好yolov3.weights和yolov4.weights文件并放在x64文件夹下。(weights文件在GitHub上可以下载)
    检测视频:使用command命令打开\build\darknet\x64文件夹,输入命令darknet.exe detector demo cfg/coco.data cfg/yolov4.cfg yolov4.weights test.mp4 -out_filename res.avi即可对视频进行目标检测并保存结果。将命令中的yolov4换成yolov3即可使用yolov3的模型。
    检测图像:输入命令darknet.exe detector test cfg/coco.data cfg/yolov4.cfg yolov4.weights dog.jpg -thresh 0.25。如果使用的是v3,将v4改成v3即可。保存检测结果:darknet.exe detector test cfg/coco.data yolov4.cfg yolov4.weights -ext_output dog.jpg

    下面是v3检测结果:
    v3检测
    v4检测结果:
    v4检测结果
    对比可以发现,v4比v3支持更多的目标种类,准确率也更高

    五、自己训练模型(使用GPU)

    我使用的数据集是PASCAL VOC 2007 training dataset中挑选的39张图像,基于YOLO v4算法的预训练模型训练了自己的模型。主要步骤如下:
    **①在YOLO v4预训练模型的基础上,修改相关参数。**在yolo-obj.cfg中,根据自己训练模型的需要,修改batch、subdivisions、max_batches、steps、width、height、classes、filters 等参数的值。在我训练的模型中,目标检测的种类设定为car和person两类,所以classes=2,filter=21。
    **②选定自己的数据集,并对目标进行标记。**我选择PASCAL VOC 2007 training dataset中39张含有car和person的图像作为自己的数据集。然后,用YOLO mark对图像中的目标(car和person)进行标记,在图像对应的txt文件中生成目标的class、x_center、y_center、width和height。
    **③训练模型。**用command命令行输入darknet.exe detector train data/obj.data yolo-obj.cfg yolov4.conv.137命令,将会开始自动训练模型。整一个训练过程是在GPU上进行的,可以加快计算速度。迭代次数设置为6000次,每迭代1000次会保存一次训练结果,在迭代计算6000次后训练结束。
    **④测试模型。**训练结束后,使用生成的权重文件测试图像。输入命令darknet.exe detector test data/obj.data yolo-obj.cfg yolo-obj_1000.weights进行测试。

    训练的时间取决于电脑的性能,随缘吧~
    这是我的损失函数,迭代了2000次:
    损失函数
    由于我只设置了person和car两类目标,所以只能检测出人和车。下面是迭代2000次的测试结果:
    自训练模型测试结果
    改进训练方法:
    增加迭代次数。迭代次数通常等于classes(检测种类)*2000,但最少不应该少于6000。适当的增加迭代次数可以改进模型,但是同时要防止过拟合。
    增加训练集数量。检测的每个对象-训练数据集中必须至少有一个相似的对象,它们具有大致相同的形状:形状,对象的侧面,相对大小,旋转角度,倾斜度,照明度。最好是有2000或以上张图像。
    合理标记对象。标记对象的最佳方法是:仅标记对象的可见部分,或标记对象的可见和重叠部分,或标记比整个对象多一点(有一点间隙)。
    修改模型参数
    。在.cfg文件中设置flag random = 1通过对Yolo进行不同分辨率的训练,或是增加.cfg文件中的网络分辨率(height= 608,width= 608或任何32的倍数)

    更详细的内容请看GitHub!

    展开全文
  • AI模型压缩算法汇总

    千次阅读 2019-06-30 10:49:45
    AI模型压缩算法汇总 最新新闻 2019-06-29 新闻原文:CVPR 2019:北邮提出新AI模型压缩算法,显著降低计算复杂度 论文:...

    AI模型压缩算法汇总

    • 最新新闻
      2019-06-29 新闻原文:CVPR 2019:北邮提出新AI模型压缩算法,显著降低计算复杂度

      论文:http://openaccess.thecvf.com/content_CVPR_2019/papers/Li_OICSR_Out-In-Channel_Sparsity_Regularization_for_Compact_Deep_Neural_Networks_CVPR_2019_paper.pdf

      GitHub: https://github.com/dsfour/OICSR

    • 主要内容
      本研究提出了一种新的结构正则化形式Out-In-Channel Sparsity Regularization (OICSR)来克服分离式结构正则化的缺陷。OICSR充分考虑了网络中连续层之间的关联关系,将结构正则化同时运用于连续网络层中相互对应的out-channels和in-channels,从而可以在更小的精度损失下移除更多的冗余通道。

      Out-In-Channel结构稀疏正则化

      连续两层网络的关联关系如图1所示,本研究用相同的颜色来标识连续层之间相互对应的out-channel和in-channel。

      连续两层网络中相互对应的输入输出通道在网络运行过程中是相互合作相互依赖的,第l层的输入与第l层中第i个out-channel的权重向量共同生成第l层的第i个输出特征图,紧接着第l层的第i个输出特征图和第l+1层中第i个in-channel的权重向量共同生成第l+1层的输出。

      除此之外,在网络通道剪枝过程中连续层之间对应的out-channel和in-channel会被共同保留或者移除。所以,有理由认为在剪枝工作中,连续层之间对应的out-channels和in-channels应该被共同且平等地考虑。
      0

      图1 连续层网络的关联关系及Out-In-Channel的定义

      分离式结构正则化的缺陷在于仅仅使得第l层网络的out-channels维度的重要程度分离开来,然而第l+1层中对应的in-channels却被忽略了。存在这样的情况,第l层网络的第i个out-channel因为分离式结构正则化,在训练过程变得冗余,因此在通道剪枝过程中被移除。然而被同时移除的l+1层网络中对应的第i个in-channel可能还是相对重要的,这时网络的能力和精度就被严重的破坏了。

      本研究因此提出在应用结构正则化进行剪枝时,应将连续层之间对应的out-channel和in-channel当成一个正则化组out-in-channel来进行结构化约束。在网络训练过程中,带有OICSR的优化目标如公式2和公式3所示:
      1
      其中的符号‘+’表示对第l层和第l+1层中对应输入输出通道的权重向量进行拼接,从而可以对同一个out-in-channel正则化组内的权重向量进行结构化约束。不同于分离式结构正则化,OICSR可以使得神经网络中out-in-channels的重要性分离开来,也就是说,对于连续网络层中共同作用相互对应的out-channels和in-channels,它们将会同时变得重要或者同时变得冗余。因此在对网络进行剪枝时,可以在更小的精度损失下,移除更多冗余的out-in-channels.

      OICSR是一种通用的结构正则化形式,很多结构正则化项GroupLasso [4], GrOWL regularization [5]等都可以拓展OICSR的形式。例如Group Lasso拓展成OICSR的形式如公式4所示:
      2

      图2 迭代剪枝流程

      本研究的迭代剪枝流程如图2所示。在通道剪枝过程中,涉及到冗余通道选取的问题。当前的很多工作仅仅使用第l层的统计信息来选择第l层和第l+1层之间的冗余通道,然而第l+1层中的统计信息又被忽略了。沿用out-in-channel的思想,认为应当同时利用连续两层网络的统计信息来选取两层网络间冗余的out-in-channels。为了简洁性表示,本研究使用了通道能量(当然也很有效果)作为通道重要性的评判标准,通道重要性准则如公式5所示:
      3

      实际上神经网络中每一层的冗余程度都不同,当前的很多工作为每一层网络设定均等的剪枝比例或者根据经验人为地设定剪枝比例是不够合理的。因此本研究提出一个全局贪婪剪枝算法(Algorithm 1),来全局地决定每一层网络的剪枝比例。首先根据公式8计算出网络中全部out-in-channels的通道能量,接着对这些通道能量进行全局排序,最后根据预先设定的全局目标剪枝比例,来贪婪地选取网络中的冗余通道,最后每层的剪枝比例因此也被确定下来。

    • 深度学习模型压缩方法

      目前深度学习模型压缩方法的研究主要可以分为以下几个方向:

      1、更精细模型的设计。
      目前的很多网络都具有模块化的设计,在深度和宽度上都很大,这也造成了参数的冗余很多,因此有很多关于模型设计的研究,如SqueezeNet、MobileNet等,使用更加细致、高效的模型设计,能够很大程度的减少模型尺寸,并且也具有不错的性能。

      2、模型裁剪。
      结构复杂的网络具有非常好的性能,其参数也存在冗余,因此对于已训练好的模型网络,可以寻找一种有效的评判手段,将不重要的connection或者filter进行裁剪来减少模型的冗余。

      3、核的稀疏化。
      在训练过程中,对权重的更新进行诱导,使其更加稀疏,对于稀疏矩阵,可以使用更加紧致的存储方式,如CSC,但是使用稀疏矩阵操作在硬件平台上运算效率不高,容易受到带宽的影响,因此加速并不明显。

      除此之外,量化、Low-rank分解、迁移学习等方法也有很多研究,并在模型压缩中起到了非常好的效果。

    展开全文
  • 这项研究旨在研究实现一种人工智能AI算法,该算法将实时分析音频文件,识别并呈现其中表达的情感。 此分类模型是通过深度学习方法开发的,这意味着深度神经网络(DNN),同时选择了用于时间序列分析的高级...
  • 利用经典人工智能生物蚁群算法,引入单体混沌理论对一般的人工蚁群算法进行优化,构建了以煤体有效应力、瓦斯气体内外压力、温度、气体吸附力为输入的人工智能蚁群算法瓦斯渗透率预测模型。利用三轴伺服渗流装置取15组...
  • BP神经网络的Matlab实现——人工智能算法

    万次阅读 多人点赞 2018-01-27 23:07:23
    这几天在各大媒体上接触到了人工智能机器学习,觉得很有意思,于是开始入门最简单的机器算法——神经网络训练算法(Neural Network Training);以前一直觉得机器学习很高深,到处是超高等数学、线性代数、数理统计。...
  • 模型部署5.1 模型转换 部署自己训练好的算法模型,经过openvino推理后应用于2085模组六 模组使用6.1运行cnn目标检测demo6.2 部署自己训练好的算法模型,经过openvino推理后应用于2085模组七 实际对比八
  • 人工智能(AI)之模型训练是什么

    千次阅读 2020-03-02 23:19:09
    人工智能中,面对大量用户输入的数据/素材,如果要在杂乱无章的内容准确、容易地识别,输出我们期待输出的图像/语音,并不是那么容易的。因此算法就显得尤为重要了。算法就是我们所说的模型。 当然,算法的内容,...
  • 人工智能算法:遗传算法

    千次阅读 多人点赞 2021-01-21 19:33:15
    本书将遗传算法定义为一种可以用交叉突变算子优化固定长度向量的演化算法。计分函数可以区分优劣方案,以优化该固定长度的向量。这个定义说明了遗传算法的本质。 此外,可以将可选特征添加到遗传算法中,以增强其...
  • AI产品经理需要懂的算法和模型

    千次阅读 2018-11-28 16:57:05
    本篇希望以精准推荐模型为案例通过全面的撰写将AI产品经理需要懂的算法和模型进行了系统的入门讲解。 一个产品经理经常疑惑的概念:算法和模型的关系,产品经理懂得解决问题时将问题抽象为模型,对模型求解用算法,...
  • 本文是2020年的正式第一文,介绍了人工智能领域深度学习平台的相关信息,内容包括:AI平台的基本介绍、系统架构、实现难点相关能力。 接下来,围绕着作者自身搭建商品模型训练平台案例,分享相关设计经验,内容...
  • 不需要预训练模型的检测算法—DSOD

    万次阅读 热门讨论 2017-08-12 10:35:08
    粗略地看第1,2,5三个block的对比,DSOD可以在没有预训练模型的情况下取得其他检测算法在预训练模型上训练的效果 。第4个block可以看做baseline,因为作者也对比都没有预训练模型的情况下检测算法的优劣,可以看出...
  • 如何成为一名AI人工智能算法工程师?

    万次阅读 多人点赞 2019-06-30 12:25:21
    经常有朋友私信问,如何学python呀,如何敲代码呀,如何进入AI行业呀? ...正好回头看看自己这一年走过的路,进行一次经验总结。...人工智能/机器学习/深度学习 自学如何寻找学习资料 如何选择编...
  • 我在上文中介绍了百度的在线AI模型创建平台aistudio(博客地址:https://blog.csdn.net/BEYONDMA/article/details/101762116),我们知道深度学习的入门一个最大的门槛就是搭建编程环境,今天我们就来用aistio我们...
  • 本文来源李杰克,这篇文章能够...这是我的第一篇文章,如果你还没系统地学习过AI算法相关知识,它应该能够让你对AI有些新的认知理解、多些信心,至少你不会再觉得AI是那么高不可攀、遥不可及——相反,AI是普通人也可
  • AI视觉模型训练+优化+部署应用演示

    万次阅读 多人点赞 2020-08-24 19:40:37
    AI视觉模型训练+优化+部署应用演示 深度学习与计算机视觉实战篇视频,自己用心做的,同时也是第一次尝试制作视频,侵删联系,希望能与大家一同学习, 关注公众号,一起学习深度学习模型训练模型优化+算法部署。...
  • 人工智能:智能优化算法

    千次阅读 2020-06-30 09:05:25
    人工智能:智能优化算法 优化问题是指在满足一定条件下,在众多方案或参数值中寻找最优方案或参数值,以使得某个或多个功能指标达到最优,或使系统的某些性能指标达到最大值或最小值。优化问题广泛地存在于信号处理...
  • AI(Artificial Intelligence)人工智能和机器学习常见算法此文章是转载:为了理解MPP 的 AI 而找的文章。一,人工智能算法个体人工智能-随机数(Random) -A*寻路(A* Search Algorithm) -状态机机制(Finite-State ...
  • 本文转自中国人工智能学会通讯第3期,已获授权,特此感谢! 欢迎人工智能领域技术投稿、约稿、给文章纠错,请发送邮件至heyc@csdn.net...内容主要分为三部分:贝叶斯基本理论、模型和算法;可扩展的贝叶斯方法;深...
  • play-daxigua-using-Re强化学习:使用强化学习DQN算法训练AI模型来玩合成大西瓜游戏,提供Keras版本PARL(paddle)版本
  • 提出用人工智能算法―――粒子群优化算法( PSO)对 CNNE模型进行训练,并针对标准粒子群算法易限于局 部极小点的局限性,采用了一种带有梯度加速的粒子群算法,通过引入梯度信息来影响粒子速度的更新。为防止陷 入局部...
  • 在网络场景下的AI模型训练的过程中,KPI异常检测项目需要对设备内多模块、多类型数据,并根据波形以及异常表现进行分析,这样的数据量往往较大,对内存性能要求较高。 同时,在设计优化算法时,需要快速得到训练...
  • 15个产业级算法推出、35个高精度预训练模型上线!最强国产开源AI框架再进化,密集提升视觉产业实战能力....pdf
  • 人工智能常见算法简介

    万次阅读 2019-02-15 13:17:32
    人工智能的三大基石—算法、数据计算能力,算法作为其他之一,是非常重要的,那么人工智能都会涉及哪些算法呢?不同算法适用于哪些场景呢? 一、按照模型训练方式不同可以分为监督学习(Supervised Learning),...
  • 本次课程,邀请IBM研究院讲师就制造业语义识别及判断模型搭建、QA模型、词向量、句子量化、POWERAI平台使用等方向给出详细讲解
  • 数据分为两种:未标注数据已标注数据,以一张工业产品的图片为例,原图是未标注数据,如果利用标注软件将其中的缺陷在原图中标注出来,...用标注数据去训练AI模型,就是监督学习,在监督学习中,高质量的标注数据 ...
  • 人工智能涉及算法

    千次阅读 2019-06-24 10:51:29
    人工智能的三大基石:算法、数据计算能力。就算法来看,涉及如下几种。 一、按照模型训练方式不同分类 可以分为监督学习(Supervised Learning),无监督学习(Unsupervised Learning)、半监督学习(Semi-...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 111,895
精华内容 44,758
关键字:

人工智能训练模型和算法