精华内容
下载资源
问答
  • 2022-02-13 17:17:38

    1. 按技术路线分类

    目前,人工智能芯片按照技术路线划分,主要分为GPU、FPGA以及ASIC三大类,三类芯片的特点如下表所示。

    AI芯片

    技术特点

    优势

    劣势

    GPU

    GPU称为图形处理器,它是显卡的核心单元,是单指令、多数据处理器。GPU采用数量众多的计算单元和超长的流水线,主要处理图像领域的运算加速。代表产品有Nvidia-Tesla v100。

    优点:相比CPU,由于其多线程结构,拥有较强的并行运算能力,与FPGA和ASIC相比,通用性更强。

    价格和功耗比FPGA和ASIC要高,并行运算能力在推理端无法完全发挥。

    FPGA

    FPGA称为现场可编程门阵列,用户可根据自身的需求进行重复编程,适用于多指令、单数据流的分析,与GPU相反。FPGA常用于预测阶段,用硬件实现软件算法,因此,在实现复杂算法方面有一定的难度。

    可对芯片硬件层进行灵活编译,且功耗远远小于CPU和GPU。

    硬件编程语言难以掌握,单个单元的计算能力比较弱,硬件成本较高,电子管冗余,功耗可进一步压缩。

    ASIC

    ASIC是一种为专门目的而设计的集成电路,是一种实现特定要求而定制的专用AI芯片。除了不能扩展以外,在功耗、可靠性、体积方面都有优势,尤其在要求高性能、低功耗的移动端。

    针对专门的任务进行架构层的优化设计,可实现PPA最优化设计、量产后成本最低。

    初始设计投入大,可编程架构设计难度较大,针对性设计会限制芯片通用性。

    2. 按应用领域分类

    从应用领域来划分,A芯片主要可分为云端数据中心AI芯片和智能终端AI芯片;而从功能来划分,又可分为AI训练(Training)芯片和AI推理(Inference)芯片。云端市场目前基本被NVIDIA和Google两大巨头统治,2020年由阿里达摩院所研发的含光800AI芯片也进入云端推理的竞争行列;终端玩家则相对较多,包括Intel、高通、ARM、Imagination、华为、寒武纪等。 

    AI芯片的应用场景众多,主要包括:数据中心(IDC)、移动终端、智能安防、自动驾驶、智能家居等。

    (1) 数据中心

    用于云端训练和推理,目前大多数的训练工作都在云端完成。移动互联网的视频内容审核、个性化推荐等都是典型的云端推理应用。Nvidia GPU在训练方面一家独大,在推理方面也保持领先位置。与此同时,FPGAASIC因为低功耗、低成本的优势,也在持续抢夺GPU的市场份额。目前云端代表芯片主要有Nvidia-Tesla V100、Nvidia-Tesla T4、华为昇腾910、寒武纪MLU270、阿里达摩院含光800等。

    (2) 移动终端

    移动终端主要包括手机,以及日渐普及的无人机等。移动终端AI芯片主要用于移动端的推理,解决云端推理因网络延迟带来的用户体验等问题,典型应用如视频特效、语音助手等。移动端AI推理通过在系统芯片(system on chipSoC)中增加协处理器或专用加速单元来实现。受制于移动终端的电量,对芯片的功耗有严格的限制。代表芯片有Apple A12 Neural Engine和华为麒麟990

    (3) 智能安防

    智能安防的主要任务是视频结构化。通过在摄像头终端加入AI芯片,可以实现实时响应、降低带宽压力,此外,也可以将推理功能集成在边缘服务器产品中,以实现对非智能摄像头数据的后台AI推理。AI芯片需要有视频处理和解码能力,主要考虑的是可处理的视频路数以及单路视频结构化的成本。代表芯片有华为Hi3559-AV100海思昇腾310和比特大陆BM1684等。

    (4) 自动驾驶

    AI芯片作为无人车的大脑,需要对汽车上大量传感器产生的数据做实时处理,对芯片的算力、功耗、可靠性都有非常高的要求,同时芯片需要满足车规标准,因此设计的难度较大。面向自动驾驶的芯片目前主要有Nvidia Orin、Xavier和Tesla的FSD等。

    (5) 智能家居

    AIoT时代,智能家居中的每个设备都需要具备一定的感知、推断以及决策功能。为了得到更好的智能语音交互用户体验,语音AI芯片进入了端侧市场。语音AI芯片相对来说设计难度低,开发周期短。代表芯片有思必驰TH1520和云知声雨燕UniOne等。

    更多相关内容
  • 本文主要包括九方面内容 :第 1 章为发展 AI 芯片产业的战略意义以及白皮书基本内容概述。第 2 章综 述了 AI 芯片的技术背景,从多个维度提出了满足不同场景条件下 AI 芯片和硬件平台的关键特征。第 3 章 介绍近几年...
  • 人工智能芯片行业深度研究报告:人工智能立夏已至,AI芯片迎接蓝海(70页),资源名称:人工智能芯片行业深度研究报告:人工智能立夏已至,AI芯片迎接蓝海(70页)70页人工智能芯片行业深度研究:人工智能立夏已至,...
  • 随着深度学习领域[1-4]带来的技术性突破,人工智能(artificial intelligence,AI)无论在科研还是在产业应用方面都取得了快速的发展。深度学习算法需要大量的矩阵乘加运算,对大规模并行计算能力有很高的要求,CPU...
  • 为了进一步促进供需对接,为 AI 芯片供应商和需求商提供交流的平台,中国人工智能产业发展联盟(以下简称“AIIA”或联盟)计算架构与芯片推进组启动“AI 芯片技术选型目录”(以下简称“选型目录”)的工作,希望为 ...
  • 人工智能芯片大有可为,想了解2018年该领域研究和工程进展的不二选择
  • 【薪酬报告】人工智能AI芯片行业2021年薪酬调查报告.docx
  • 艾瑞咨询出具的2019年AI芯片行业研究报告,涵盖AI芯片行业概述,AI芯片应用场景及市场需求,AI芯片行业产业链及商业模式、优秀的AI芯片企业等。
  • 人工智能芯片

    2018-07-04 18:17:44
    随着行业发展环境的趋好,人工智能芯片企业间的竞争将不断加剧,行业内企业间并购整合与资本运作将日趋频繁,优秀的人工智能芯片企业必须重视对行业市场的研究,特别是对企业发展环境和客户需求趋势变化的深入研究。
  • 人工智能产业得以快速发展,无论是算法的实现、海量数据的获取和存储还是计算能力的体现都离...可以说,“无芯片AI”,能否开发出具有超高运算能力、符合市场需求的芯片,已成为人工智能领域可持续发展的重要因素。
  • 人工智能芯片技术进展及产业发展研究报告.pdf
  • 2022年中国AI芯片行业深度研究

    千次阅读 2022-03-28 14:24:31
    四大类人工智能芯片(GPU、ASIC、FGPA、类脑芯片)及系统级智能芯片在国内的发展进度参差不齐。用于云端的训练、推断等大算力通用 芯片发展较为落后;适用于更多垂直行业的终端应用芯片如自动驾驶、智能安防、机器人...

    人工智能技术与咨询 

    四大类人工智能芯片(GPUASIC、FGPA、类脑芯片)及系统级智能芯片在国内的发展进度参差不齐。用于云端的训练、推断等大算力通用 芯片发展较为落后;适用于更多垂直行业的终端应用芯片如自动驾驶、智能安防、机器人等专用芯片发展较快。超过80%中国人工智能产业链企 业也集中在应用层。

    总体来看,人工智能芯片的发展仍需基础科学积累和沉淀,因此,产学研融合不失为一种有效的途径。

    研究主体界定:面向人工智能领域的芯片及其技术、算法与应用

    无芯片不AI , 以AI芯片为载体实现的算力是人工智能发展水平的重要衡量标准。

    广义的AI芯片:专门用于处理人工智能应用中大量计算任务的模块,即面向人工智能领域的芯片均被称为AI芯片。狭义的AI芯片:针对人工智能算法做了特殊加速设计的芯片。

    2022中国AI芯片行业研究报告》报告将对针对狭义的AI芯片即人工智能算法做特殊加速设计的四种主流芯片GPUASICFPGA、类脑芯片以及系统级AI芯片技术、实现 AI的主流算法及在场景中的应用情况进行解析。

    AI芯片的发展历程:模仿人脑建立的模型和算法与半导体芯片发展交替进行

    人工智能算法需要在计算机设备上实现,而芯片又是计算机设备运作的核心零件,因此AI芯片的发展主要依赖两个领域:第一个是模仿人脑建 立的数学模型与算法,第二个是半导体集成电路即芯片。优质的算法需要足够的运算能力也就是高性能芯片的支持。

    亿欧智库2019年发布AI芯片行业研究报告认为,人工智能于芯片的发展分为三个阶段:第一阶段由于芯片算力不足,神经网络算法未能落 地;第二阶段芯片算力提升,但仍无法满足神经网络算法需求;第三阶段,GPU和新架构的AI芯片促进了人工智能的落地。

    目前,随着第三代神经网络的出现,弥合了神经科学与机器学习之间的壁垒,AI芯片正在向更接近人脑的方向发展。

    中国AI芯片产业图谱

    基于技术架构、部署位置及实践目标的AI芯片分类

    AI芯片一般泛指所有用来加速AI应用,尤其是用在基于神经网络的深度学习中的硬件。

    AI芯片根据其技术架构,可分为GPUFPGAASIC及类脑芯片,同时CPU可执行通用AI计算,其中类脑芯片还处于探索阶段。

    AI芯片根据其在网络中的位置可以分为云端AI芯片边缘及终端AI芯片根据其在实践中的目标,可分为训练(training)芯片推理 (inference)芯片

    云端主要部署训练芯片和推理芯片,承担训练和推理任务,具体指智能数据分析、模型训练任务和部分对传输带宽要求比高的推理任务;边缘 和终端主要部署推理芯片,承担推理任务,需要独立完成数据收集、环境感知、人机交互及部分推理决策控制任务。

    GPU:从图形处理器到通用数据并行处理器

    GPU(Graphics Processing Unit)图形处理器最初是一种专门用于图像处理的微处理器,随着图像处理需求的不断提升,其图像处理能力也得 到迅速提升。目前,GPU主要采用数据并行计算模式完成顶点渲染、像素渲染、几何渲染、物理计算和通用计算等任务。因其超过CPU数十倍 的计算能力,已成为通用计算机和超级计算机的主要处理器。其中通用图形处理器GPGPU(GeneralPropose Computing on GPU)常用于数据 密集的科学与工程计算中。

    英伟达与AMD仍占据GPU霸主地位,2018年至今,国产GPU也积极发展中,已有部分产品落地。

    ASIC与FPGA: AI芯片领域“兵家必争之地”

    FPGA全称是Field Programmable Gate Array:可编程逻辑门阵列,是一种“可重构”芯片,具有模块化和规则化的架构,主要包含可编程 逻辑模块、片上储存器及用于连接逻辑模块的克重购互连层次结构。在较低的功耗下达到GFLOPS数量级的算力使之成为并行实现人工神经 网络的替代方案。

    ASIC(Application-Specific Integrated Circuit)是指应特定用户要求和特定电子系统的需要而设计、制造的集成电路。ASIC从性能能效、 成本均极大的超越了标准芯片,非常适合AI计算场景,是当前大部分AI初创公司开发的目标产品。

    ASIC与FPGA:功能与市场定位不同,竞争关系不明显

    FPGA具有开发周期短,上市速度快,可配置性等特点,目前被大量的应用在大型企业的线上数据处理中心军工单位。ASIC一次性成本远远 高于FPGA,但由于其量产成本低,应用上就偏向于消费电子,如移动终端等领域。

    目前,处理器中开始集成FPGA,也出现了可编程的ASIC,同时,随着SoC的发展,两者也在互相融合。

    基于不同硬件实现方式的AI芯片:系统级芯片

    在手机、可穿戴设备等端设备中,很少有独立的芯片,AI加速将由SoC上的一个IP实现。

    SoC(System-on-chip,片上系统)作为ASIC设计方法学中的新技术,始于20世纪90年代中期,是以嵌入式系统为核心,以IP复用技术为基 础,集软、硬件于一体的集成芯片。在一个芯片上实现信号的传输、存储、处理和I/O等功能,包含嵌入软件及整个系统的全部内容。

    由于高集成效能,SoC已经成为微电子芯片发展的必然趋势。

    基于不同计算范式的AI芯片:类脑芯片

    CPU/GPU/GFPGA/ASIC及SoC是目前用的较多的AI芯片,此类AI芯片大多是基于深度学习,也就是深度神经网络(DNN),以并行方式进 行计算的芯片,此类AI芯片又被称为深度学习加速器

    如今,模仿大脑结构的芯片具有更高的效率和更低的功耗,这类基于神经形态计算,也就是脉冲神经网络(SNN)的芯片为类脑芯片

    目前,部分企业产品已进入小批量试用阶段 ,类脑芯片最快将于2023年成熟,能效比有望较当前芯片提高2-3个数量级。

    AI芯片发展:向着更低功耗、更接近人脑、更靠近边缘的方向

    现在用于深度学习的AI芯片(包括CPU、GPU、FPGA、ASIC)为了实现深度学习的庞大乘积累加运算和并行计算的高性能,芯片面积越做越 大,带来了成本和散热等问题。AI芯片软件编程的成熟度、芯片的安全,神经网络的稳定性等问题也未能得到很好的解决,因此,在现有基础 上进行改进和完善此类AI芯片仍是当前主要的研究方向。

    最终,AI芯片将近一步提高智能,向着更接近人脑的高度智能方向不断发展,并向着边缘逐步移动以获得更低的能耗。

    AI芯片发展:计算范式创新方向及其硬件实现

    AI硬件加速技术已经逐渐走向成熟。未来可能更多的创新会来自电路和器件级技术的结合,比如存内计算类脑计算;或者是针对特殊的计 算模式或者新模型,比如稀疏化计算和近似计算,对图网络的加速;或者是针对数据而不是模型的特征来优化架构。

    同时,如果算法不发生大的变化,按照现在AI加速的主要方法和半导体技术发展的趋势,或将在不远的将来达到数字电路的极限(约1到 10TFlops/W),往后则要靠近似计算模拟计算,甚至是材料或基础研究上的创新。

    来源:亿欧智库

    本文引用地址:

        http://www.eepw.com.cn/article/202203/432210.htm

    关注微信公众号:人工智能技术与咨询。了解更多咨询!

    赶紧长按上面图片添加关注!

    转发,点赞,在看,安排一下?

    展开全文
  • 2020中国人工智能芯片企业TOP50.pdf
  • 人工智能AI芯片应用领域研究报告 照 参 公 信 号 微 附关联企业介绍 众 行业概况人工智能行业简介 人工智能 Artificial Intelligence 是指使用机器代替人类实现认知识别分析决策等功 能其本质是对人的意识与思维...
  • 人工智能行业系列(二):AI芯片三大应用场景应用现状及趋势(2021)(12页).pdf
  • AI芯片主要分为CPU 、GPU、FPGA以及ASIC。其中以CPU、GPU、FPGA、ASIC的顺序,通用性逐渐减 低,但运算效率逐步提高。FPGA作为与用集成电路领域中癿一种半定制电路而出现癿,既解决了定制电路 癿丌足,又光服了原有...
  • AI 芯片设计是人工智能产业链的重要一环。自2017 年5 月以来,各AI 芯片厂商的新品竞相发布,经过一年多的发展,各环节分工逐渐明显。AI 芯片的应用场景不再局限于云端,部署于智能手机、安防摄像头、及自动驾驶汽车...
  • 2020人工智能Ai芯片前言解读

    千次阅读 2020-02-14 20:01:18
    芯片的概念:(半导体元件产品的统称)集成电路,缩写作 IC;或称微电路、微芯片、晶片/芯片,在电子学中是一种把电路(主要包括半导体设备,也包括被动组件等)小型化的方式,并时常制造在半导体晶圆表面上。 专业...

    芯片的概念:(半导体元件产品的统称)集成电路,缩写作 IC;或称微电路、微芯片、晶片/芯片,在电子学中是一种把电路(主要包括半导体设备,也包括被动组件等)小型化的方式,并时常制造在半导体晶圆表面上。

    专业地讲就是:将电路制造在半导体芯片表面上的集成电路又称薄膜(thin-film)集成电路。另有一种厚膜(thick-film)集成电路(hybrid integrated circuit)是由独立半导体设备和被动组件,集成到衬底或线路板所构成的小型化电路

    人工智能(Artificial Intelligence,AI)芯片的定义:从广义上讲只要能够运行人工智能算法的芯片都叫作 AI 芯片。但是通常意义上的 AI 芯片指的是针对人工智能算法做了特殊加速设计的芯片,现阶段,这些人工智能算法一般以深度学习算法为主,也可以包括其它机器学习算法。

    AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。当前,AI芯片主要分为GPUFPGAASIC

    人工智能芯片四大类(按技术架构分类):

    1、通用芯片(GPU)。
    GPU是单指令、多数据处理,采用数量众多的计算单元和超长的流水线,主要处理图像领域的运算加速。
    GPU是不能单独使用的,它只是处理大数据计算时的能手,必须由CPU进行调用,下达指令才能工作。
    但CPU可单独作用,处理复杂的逻辑运算和不同的数据类型,但当需要处理大数据计算时,则可调用GPU进行并行计算。
    2、半定制化芯片(FPGA)。
    FPGA适用于多指令,单数据流的分析,与GPU相反,因此常用于预测阶段,如云端。FPGA是用硬件实现软件算法,因此在实现复杂算法方面有一定的难度,缺点是价格比较高。与 GPU 不同,FPGA 同时拥有硬件流水线并行和数据并行处理能力,适用于以硬件流水线方式处理一条数据,且整数运算性能更高,因此常用于深度学习算法中的推断阶段。不过FPGA 通过硬件的配置实现软件算法,因此在实现复杂算法方面有一定的难度。将FPGA 和 CPU 对比可以发现两个特点,一是 FPGA 没有内存和控制所带来的存储和读取部 分速度更快,二是 FPGA 没有读取指令操作,所以功耗更低。劣势是价格比较高、编程复杂、整体运算能力不是很高。目前国内的AI 芯片公司如深鉴科技就提供基于 FPGA 的解决方案。 
    3、全定制化芯片(ASIC)。
    ASIC是为实现特定场景应用要求时,而定制的专用AI芯片。除了不能扩展以外,在功耗、可靠性、体积方面都有优势,尤其在高性能、低功耗的移动设备端。
    定制的特性有助于提高 ASIC 的性能功耗比,缺点是电路设计需要定制,相对开发周期长,功能难以扩展。但在功耗、可靠性、集成度等方面都有优势,尤其在要求高性能、低功耗的移动应用端体现明显。谷歌的 TPU、 寒武纪的 GPU,地平线的 BPU都属于 ASIC芯片。谷歌的 TPU比 CPU和 GPU的方案快 30 至 80 倍,与 CPU和 GPU相比,TPU把控制电路进行了简化,因此减少了芯片的面积,降低了功耗。 
    4、类脑芯片。
    类脑芯片架构是一款模拟人脑的神经网络模型的新型芯片编程架构,这一系统可以模拟人脑功能进行感知方式、行为方式和思维方式。
    有人说,ASIC是人工智能芯片的一个主要发展方向,但真正的人工智能芯片未来发展的方向是类脑芯片。
    类脑芯片研究是非常艰难的,IBM、高通、英特尔等公司的芯片策略都是用硬件来模仿人脑的神经突触。

    AI 芯片按功能分类 :

    根据机器学习算法步骤,可分为 训练(training)推断(inference)两个环节: 
    训练环节通常需要通过大量的数据输入,训练出一个复杂的深度神经网络模型。训练过程由于涉及海量的训练数据和复杂的深度神经网络结构,运算量巨大,需要庞大的计算规模,对于处理器的计算能力、精度、可扩展性等性能要求很高。目前市场上通常使用英伟达的GPU集群来完成,Google的 TPU2.0/3.0也支持训练环节的深度网络加速。 
    推断环节是指利用训练好的模型,使用新的数据去“推断”出各种结论。这个环节的
    计算量相对训练环节少很多,但仍然会涉及到大量的矩阵运算。
    在推断环节中,除了使用CPU或 GPU进行运算外,FPGA以及 ASIC均能发挥重大作用。

    AI芯片的比较:

    GPU未来的应用方向是高级复杂算法和通用性人工智能平台,买来就能使用。

    FPGA更适用于各种具体的行业,人工智能会应用到各个具体领域。

    ASIC芯片是全定制芯片。因为算法复杂度越强,越需要一套专用的芯片架构与其进行对应。定制就是当客户处在某一特殊场景时,可以为其独立设计一套专业智能算法软件。

    而ASIC基于人工智能算法进行独立定制,其发展前景看好。

    类脑芯片是人工智能最终的发展模式,但是离产业化还很遥远。

    深度学习芯片使用情况比较:

    ⚫ CPU通用性最强,但延迟严重,散热高,效率最低。

    ⚫ GPU 通用性强、速度快、效率高,特别适合用在深度学习训练方面,但是性能功耗比较低。

    ⚫ FPGA具有低能耗、高性能以及可编程等特性,相对于 CPU与 GPU有明显的性能或者能耗优势,但对使用者要求高。

    ⚫ ASIC 可以更有针对性地进行硬件层次的优化,从而获得更好的性能、功耗比。但是 ASIC 芯片的设计和制造需要大量的资金、较长的研发周期和工程周期,而且深度学习算法仍在快速发展,若深度学习算法发生大的变化,FPGA 能很快改变架构,适应最新的变化,ASIC类芯片一旦定制则难于进行修改。

    当前阶段,GPU 配合 CPU 仍然是 AI 芯片的主流,而后随着视觉、语音、深度学习的 算法在FPGA以及ASIC芯片上的不断优化,此两者也将逐步占有更多的市场份额,从而与 GPU达成长期共存的局面。从长远看,人工智能类脑神经芯片是发展的路径和方向。

    人工智能芯片目前有两种发展路径:

    一种是延续传统计算架构,加速硬件计算能力,主要以 3 种类型的芯片为代表,即 GPU、FPGA、ASIC, 但CPU依旧发挥着不可替代的作用;另一种是颠覆经典的冯·诺依曼计算架构,采用类脑神 经结构来提升计算能力,以 IBM TrueNorth 芯片为代表。

    GPU芯片发展历程

    AI芯片与以往的普通芯片有什么区别呢?

    手机AI芯片对于各种AI算子能够以30倍到50倍左右的速度处理。以拍照场景为例,AI芯片能够做更好的一个图像检测,图像分割和图像语义理解。另外,对声音可以听清、听懂,并根据所了解的客户意图提供客户真正想要的服务。比如,内置独立神经网络单元NPU的麒麟970的图片处理速度可达到约2005张每分钟,而在没有NPU的情况下每分钟只能处理97张图像。当然,其他应用场景在AI的加持下同样变得高能。

    传统的 CPU及其局限性 :

    计算机工业从 1960 年代早期开始使用 CPU 这个术语。迄今为止,CPU 从形态、设计到实现都已发生了巨大的变化,但是其基本工作原理却一直没有大的改变。通常 CPU 由控制器和运算器这两个主要部件组成。实质上仅单独的 ALU模块(逻辑运算单元)是用来完成数据计算的,其他各个模块的存在都是为了保证指令能够一条接一条的有序执行。这种通用性结构对于传统的编程计算模式非常适合,同时可以通过提升 CPU 主频(提升单位时间内执行指令的条数)来提升计算速度。但对于深度学习中的并不需要太多的程序指令、却需要海量数据运算的计算需求,这种结构就显得有些力不从心。尤其是在功耗限制下,无法通过无限制的提升CPU 和内存的工作频率来加快指令执行速度,这种情况导致CPU系统的发展遇到不可逾越的瓶颈。

    并行加速计算的 GPU :

    GPU作为最早从事并行加速计算的处理器,相比 CPU速度快,同时比其他加速器芯片编程灵活简单。

    传统的CPU之所以不适合人工智能算法的执行,主要原因在于其计算指令遵循串行执行的方式,没能发挥出芯片的全部潜力。与之不同的是,GPU 具有高并行结构,在处理图形数据和复杂算法方面拥有比 CPU 更高的效率。对比 GPU 和 CPU 在结构上的差异,CPU 大部分面积为控制器和寄存器,而 GPU拥有更多的 ALU(ARITHMETIC LOGIC UNIT,逻辑运算单元)用于数据处理,这样的结构适合对密集型数据进行并行处理。程序在GPU系统上的运行速度相较于单核 CPU往往提升几十倍乃至上千倍。随着英伟达、AMD 等公司不断推进其对 GPU 大规模并行架构的支持,面向通用计算的 GPU(即 GPGPU,GENERAL PURPOSE GPU,通用计算图形处理器)已成为加速可并行应用程序的重要手段。

    我国AI芯片发展情况 :

    目前,我国的人工智能芯片行业发展尚处于起步阶段。
    长期以来,中国在 CPU、GPU、DSP 处理器设计上一直处于追赶地位, 绝大部分芯片设计企业依靠国外的 IP 核设计芯片,在自主创新上受到了极大的限制。然而,人工智能的兴起,无疑为中国在处理器领域实现弯道超车提供了绝佳的机遇。人工智能领域的应用目前还处于面向行业应用阶段,生态上尚未形成垄断,国产处理器厂商与国外竞争对手在人工智能这一全新赛场上处在同一起跑线上,因此,基于新兴技术和应用市场,中国在建立人工智能生态圈方面将大有可为。 
    由于我国特殊的环境和市场,国内 AI 芯片的发展目前呈现出百花齐放、百家争鸣的态势,AI 芯片的应用领域也遍布股票交易、金融、商品推荐、安防、早教机器人以及无人驾驶等众多领域,催生了大量的人工智能芯片创业公司,如地平线、深鉴科技、中科寒武纪等。尽管如此,国内公司却并未如国外大公司一样形成市场规模,反而出现各自为政的散裂发展现状。除了新兴创业公司,国内研究机构如北京大学、清华大学、中国科学院等在AI芯片领域都有深入研究;而其他公司如百度和比特大陆等,2017年也有一些成果发布。 可以预见,未来谁先在人工智能领域掌握了生态系统,谁就掌握住了这个产业的主动权。

    展望未来:

    目前主流 AI芯片的核心主要是利用 MAC(Multiplier and Accumulation,乘加计算)加速阵列来实现对 CNN(卷积神经网络)中最主要的卷积运算的加速。这一代 AI 芯片主要有如下 3个方面的问题。

    (1)深度学习计算所需数据量巨大,造成内存带宽成为整个系统的瓶颈,即所谓的“memory wall”问题。 
    (2)与第一个问题相关,内存大量访问和MAC阵列的大量运算,造成AI芯片整体功耗的增加。 
    (3)深度学习对算力要求很高,要提升算力,最好的方法是做硬件加速,但是同时深度学习算法的发展也是日新月异,新的算法可能在已经固化的硬件加速器上无法得到很好的支持,即性能和灵活度之间的平衡问题。

    因此,我们可以预见,下一代 AI芯片将有如下的几个发展趋势:

    趋势一:更高效的大卷积解构/复用 
    在标准 SIMD 的基础上,CNN 由于其特殊的复用机制,可以进一步减少总线上的数据通信。而复用这一概念,在超大型神经网络中就显得格外重要。如何合理地分解、映射这些超大卷积到有效的硬件上成为了一个值得研究的方向。 
    趋势二:更低的 Inference计算/存储位宽 
    AI 芯片最大的演进方向之一可能就是神经网络参数/计算位宽的迅速减少——从 32 位浮点到 16 位浮点/定点、8 位定点,甚至是 4 位定点。在理论计算领域,2 位甚至 1 位参数位宽,都已经逐渐进入实践领域。 
    趋势三:更多样的存储器定制设计 
    当计算部件不再成为神经网络加速器的设计瓶颈时,如何减少存储器的访问延时将会成为下一个研究方向。通常,离计算越近的存储器速度越快,每字节的成本也越高,同时容量也越受限,因此新型的存储结构也将应运而生。 
    趋势四:更稀疏的大规模向量实现 
    神经网络虽然大,但是,实际上有很多以零为输入的情况,此时稀疏计算可以高效的减少无用能效。来自哈佛大学的团队就该问题提出了优化的五级流水线结构, 在最后一级输出了触发信号。在Activation层后对下一次计算的必要性进行预先判断,如果发现这是一个稀疏节点,则触发 SKIP信号,避免乘法运算的功耗,以达到减少无用功耗的目的。 
    趋势五:计算和存储一体化 
    计算和存储一体化(process-in-memory)技术,其要点是通过使用新型非易失性存储 (如ReRAM)器件,在存储阵列里面加上神经网络计算功能,从而省去数据搬移操作,即实现了计算存储一体化的神经网络处理,在功耗性能方面可以获得显著提升。
    展开全文
  • 2018 n 0 n A m ) Contents 6 . .
  • 本报告对AI芯片主流类型进行拆解分析,展现中国人工智能芯片的发展现况,探究其发展的困境和机遇,希望能为广大从业者和各方关注人士提 供有益的帮助。 中国人工智能芯片行业发展现状 人工智能芯片行业解读 01.技术...
  • 20210220-甲子光年-AI芯片行业:2021年中国AI芯片发展简报及典型厂商案例.pdf
  • 1、定制芯片的性能提升非常明显,这种性能的飞速提升对于人工智能的发展意义重大;2、人工智能时代的市场空间将不仅仅局限于计算机、手机等传统计算平台,核心芯片需求量将数十倍于智能手机下游需求量;3、通过算法...
  • 人工智能芯片的中国突围-深度解析
  • 人工智能芯片技术白皮书2018中文版,主要对人工智能所用和依赖的芯片进行介绍性的白皮书文档。内容丰富,比较权威。
  • 人工智能芯片技术研究.pdf
  • 关于AI芯片的介绍

    千次阅读 2021-12-05 12:24:56
    1.对几个芯片的认识和了解 2.国内外AI芯片现状

    第一部分 对几个芯片的认识和了解

    1. AI芯片与传统芯片

    人工智能是一个很老很老的概念,而神经网络只不过是人工智能范畴的一个子集。早在1956年,被誉为“人工智能之父”的图灵奖得主约翰·麦卡锡就这样定义人工智能:创造智能机器的科学与工程。而在1959年,Arthur Samuel给出了人工智能的一个子领域机器学习的定义,即“计算机有能力去学习,而不是通过预先准确实现的代码”,这也是目前公认的对机器学习最早最准确的定义。而我们日常所熟知的神经网络、深度学习等都属于机器学习的范畴,都是受大脑机理启发而发展得来的。另外一个比较重要的研究领域就是脉冲神经网络,国内具有代表的单位和企业是清华大学类脑计算研究中心和上海西井科技等。
    在这里插入图片描述

    所谓的AI芯片,一般是指针对AI算法的ASIC(专用芯片)。 传统的CPU、GPU都可以拿来执行AI算法,但是速度慢,性能低,无法实际商用。

    2.几个关键词

    对于人工智能技术,数据、算力和算法,这三大要素是相互促进、缺一不可的。

    2.1.CPU

    是“Central Processing Unit”的英语缩写,中文意思是“中央处理器”,有时我们也简称它为“处理器”或是“微处理器”。它是整个计算机系统的运算、控制中心,也就是计算机的“大脑”。CPU的工作原理:CPU的内部结构可分为控制、逻辑、存储三大部分。如果将CPU比作一台机器的话,其工作原理大致是这样的:首先是CPU将“原料”(程序发出的指令)经过“物质分配单位”(控制单元)进行初步调节,然后送到“加工车床”(逻辑运算单元)进行加工,最后将加工出来的“产品”(处理后的数据)存储到“仓库”(存储器)中,以后“销售部门”(应用程序)就可到“仓库”中按需提货了。
    CPU最主要的优势就是通用性,它必须适应各种不同的应用场景,同时尽可能保持高性能和低功耗,这其实是一件非常复杂的事情。把设计芯片比作开饭店,那么设计那些针对特定应用的专用芯片就好比是开个火锅店,或者拉面馆,只需要专注于做好几道看家菜就可以了。而设计CPU就好比是开个大酒楼,各大菜系都得整明白,煎炒烹炸也得样样精通,甚至西餐甜点也得配齐。为了实现和完善这种通用性,现代CPU的设计思路也在不断进化。除了不断升级微架构,做到性能和功耗的迭代优化外,CPU还在不断集成一些专用的加速单元,用来处理像人工智能这样非常重要或者流行度越来越高的应用。这种以通用性能升级为主,并兼顾部分专用应用加速技术的思路,就成为了现代CPU设计的主旋律。
    中央处理器作为计算机系统的运算和控制核心,是信息处理、程序运行的最终执行单元,CPU 是对计算机的所有硬件资源(如存储器、输入输出单元) 进行控制调配、执行通用运算的核心硬件单元。优点:CPU有大量的缓存和复杂的逻辑控制单元,非常擅长逻辑控制、串行的运算;缺点:不擅长复杂算法运算和处理并行重复的操作。
    对于AI芯片来说,算力最弱的是cpu。虽然cpu主频最高,但是单颗也就8核,16核的样子,一个核3.5g,16核也就56g,再考虑指令周期,每秒最多也就30g次乘法。
    在这里插入图片描述

    2.2.GPU

    GraphicsProcessing Unit。图形处理器,又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器,设计初衷是为了应对图像处理中需要大规模并行计算。
    优点:提供了多核并行计算的基础结构,且核心数非常多,可以支撑大量数据的并行计算,拥有更高的浮点运算能力。
    缺点:管理控制能力(最弱),功耗(最高);第一,应用过程中无法充分发挥并行计算优势。深度学习包含训练和应用两个计算环节,GPU 在深度学习算法训练上非常高效,但在应用时一次性只能对于一张输入图像进行处理,并行度的优势不能完全发挥;第二,硬件结构固定不具备可编程性。深度学习算法还未完全稳定,若深度学习算法发生大的变化,GPU 无法像FPGA 一样可以灵活的配置硬件结构;第三,运行深度学习算法能效远低于FPGA。学术界和产业界研究已经证明,运行深度学习算法中实现同样的性能,GPU 所需功耗远大于FPGA,例如国内初创企业深鉴科技基于FPGA 平台的人工智能芯片在同样开发周期内相对GPU能效有一个数量级的提升。
    在这里插入图片描述

    2.3.FPGA

    FPGA 器件属于专用集成电路中的一种半定制电路,是可编程的逻辑列阵,FPGA 的基本结构包括可编程输入输出单元,可配置逻辑块,数字时钟管理模块,嵌入式块RAM,布线资源,内嵌专用硬核,底层内嵌功能单元。由于FPGA具有布线资源丰富,可重复编程和集成度高,投资较低的特点,在数字电路设计领域得到了广泛的应用。
    FPGA的优点如下:
    (1) FPGA由逻辑单元、RAM、乘法器等硬件资源组成,通过将这些硬件资源合理组织,可实现乘法器、寄存器、地址发生器等硬件电路。
    (2) FPGA可通过使用框图或者Verilog HDL来设计,从简单的门电路到FIR或者FFT电路。
    (3) FPGA可无限地重新编程,加载一个新的设计方案只需几百毫秒,利用重配置可以减少硬件的开销。
    (4) FPGA的工作频率由FPGA芯片以及设计决定,可以通过修改设计或者更换更快的芯片来达到某些苛刻的要求(当然,工作频率也不是无限制的可以提高,而是受当前的IC工艺等因素制约)。
    FPGA的缺点如下:
    (1) FPGA的所有功能均依靠硬件实现,无法实现分支条件跳转等操作。
    (2) FPGA只能实现定点运算。
    在这里插入图片描述

    2.4.TPU

    张量处理器(英语:tensor processing unit,缩写:TPU)是Google为机器学习定制的专用芯片(ASIC),专为Google的深度学习框架TensorFlow而设计。与图形处理器(GPU)相比,TPU采用低精度(8位)计算,以降低每步操作使用的晶体管数量。降低精度对于深度学习的准确度影响很小,但却可以大幅降低功耗、加快运算速度。同时,TPU使用了脉动阵列的设计,用来优化矩阵乘法与卷积运算,减少I/O操作。此外,TPU还采用了更大的片上内存,以此减少对DRAM的访问,从而更大程度地提升性能。
    Google在2016年的Google I/O年会上首次公布了TPU。不过在此之前TPU已在Google内部的一些项目中使用了一年多,如Google街景服务、RankBrain以及其旗下DeepMind公司的围棋软件AlphaGo等都用到了TPU。而在2017年的Google I/O年会上,Google又公布了第二代TPU,并将其部署在Google云平台之上。第二代TPU的浮点运算能力高达每秒180万亿次。
    在这里插入图片描述

    2.5.IPU

    是具有强化的加速器和以太网连接的高级网络设备,它使用紧密耦合、专用的可编程内核加速和管理基础架构功能。IPU 提供全面的基础架构分载,并可作为运行基础架构应用的主机的控制点,从而提供一层额外防护。由英特尔公司开发。

    2.6.NPU

    嵌入式神经网络处理器(NPU)采用“数据驱动并行计算”的架构,特别擅长处理视频、图像类的海量多媒体数据。
    NPU处理器专门为物联网人工智能而设计,用于加速神经网络的运算,解决传统芯片在神经网络运算时效率低下的问题。在GX8010中,CPU和MCU各有一个NPU,MCU中的NPU相对较小,习惯上称为SNPU。NPU处理器包括了乘加、激活函数、二维数据运算、解压缩等模块。乘加模块用于计算矩阵乘加、卷积、点乘等功能,NPU内部有64个MAC,SNPU有32个。激活函数模块采用最高12阶参数拟合的方式实现神经网络中的激活函数,NPU内部有6个MAC,SNPU有3个。二维数据运算模块用于实现对一个平面的运算,如降采样、平面数据拷贝等,NPU内部有1个MAC,SNPU有1个。
    解压缩模块用于对权重数据的解压。为了解决物联网设备中内存带宽小的特点,在NPU编译器中会对神经网络中的权重进行压缩,在几乎不影响精度的情况下,可以实现6-10倍的压缩效果。
    在这里插入图片描述

    2.7.类脑芯片

    类人脑芯片架构是一款基于神经形态的工程,旨在打破“冯·诺依曼”架构的束缚,模拟人脑处理过程,感知世界、处理问题。这种芯片的功能类似于大脑的神经突触,处理器类似于神经元,而其通讯系统类似于神经纤维,可以允许开发者为类人脑芯片设计应用程序。通过这种神经元网络系统,计算机可以感知、记忆和处理大量不同的信息。类脑芯片的两大突破:1、有望形成自主认知的新形式;2、突破传统计算机体系结构的限制,实现数据并行传送、分布式处理,能以极低功耗实时处理大量数据。

    3.深度神经网络加速器体系结构

    在DNN加速器设计的早期阶段,加速器被设计用于加速通用处理中的近似程序或用于小型神经网络。尽管片上加速器的功能和性能非常有限,但它们揭示了AI专用芯片的基本思想。代表:神经处理单元(neural processing unit, NPU)和一种可重新配置的 NoC 加速器RENO。对于广泛使用的DNN和CNN(卷积神经网络)应用,独立的专有域的加速器在云和边缘场景中均取得了巨大的成功。与通用CPU和GPU相比,这些定制架构可提供更好的性能和更高的能效,代表:电脑(DianNao)系列和张量处理单元(TPU)。ReRAM 和混合存储立方体(HMC)是具有代表性的新兴存储技术和可实现内存中处理(PIM)的存储结构。CPU和片外存储器之间的数据移动比浮点操作消耗的能量大两个数量级。PIM可以极大地减少计算中的数据移动。DNN加速器可以从ReRAM和HMC 中获得这些好处,并应用PIM来加速DNN执行。通过应用高效的NN结构,也可以提高DNN加速器的效率,如稀疏神经网络、低精度神经网络、生成对抗网络和递归神经网络的加速器。DNN加速器的未来趋势:①DNN训练和加速器阵列;②基于ReRAM的PIM加速器;③边缘 DNN加速器。

    4.AI芯片市场需求分析

    GPU是目前市场上AI计算最成熟,、应用最广泛的通用芯片,按照弗若斯特沙利文的推算,2020年GPU芯片在AI芯片中的占达35.95%,占领最主要的市场份额。作为数据中心和算力的主力军,前瞻认为,GPU市场仍将以提升效率和扩大应用场景为发展目标,继续主导芯片市场。在当前技术与运用都在快速更迭的时期,FPGA可编程带来的配置灵活性使其能更快地适应市场,具有明显的实用性。随着开发者生态的逐渐丰富,适用的编程语言增加,FPGA运用将会更加广泛。在专业芯片发展得足够完善之前,FPGA作为最好的过渡产品,在短期内将成为各大厂商的选择热点。据MRFR数据,2019年全球FPGA市场规模为69.06亿美元,在5G和AI的推动下,2025年全球FPGA的市场规模有望达到125亿美元,年复合增长率达10.42%。
    目前主流 AI 芯片的核心主要是利用 MAC(Multiplier and Accumulation, 乘加计算) 加速阵列来实现对 CNN(卷积神经网络)中最主要的卷积运算的加速。这一代 AI 芯片主要有如下 3 个方面的问题。
      (1)深度学习计算所需数据量巨大,造成内存带宽成为整个系统的瓶颈,即所谓“memory wall” 问题。
      (2)与第一个问题相关, 内存大量访问和 MAC阵列的大量运算,造成 AI芯片整体功耗的增加。
      (3)深度学习对算力要求很高,要提升算力,最好的方法是做硬件加速,但是同时深度学习算法的发展也是日新月异,新的算法可能在已经固化的硬件加速器上无法得到很好的支持,即性能和灵活度之间的平衡问题。
    下一代 AI 芯片将有如下的五个发展趋势:
    (1)更高效的大卷积解构/复用
    (2)更低的 Inference 计算/存储位宽
    (3)更多样的存储器定制设计
    (4)更稀疏的大规模向量实现
    (5)计算和存储一体化

    5.AI芯片专利技术研发态势

    在2019年,GPU、FPGI、ASIC、CPLD四个分支领域的专利布局数量最多,分别是59 071项、31 455项、8 769项、4 531项。其他如类脑芯片、VPU、NPU、DPU等分支领域的专利布局数量较少,仍处于概念设计或原型制造的阶段,尚未形成大规模产品化能力。GPU领域优势机构主要来自日本、美国和韩国。其中,日本共有13家机构进入TOP20,佳能公司以3 389项专利位列全球首位,日本理光株式会社紧随其后,共有2 007项专利;美国共有6家机构进入TOP20,富士施乐公司以1 698项专利位列全球第3位,此外还包括英伟达公司、英特尔公司、微软公司、苹果公司和高通公司。FPGA领域优势机构主要来自中国、美国和韩国。其中,中国共有15家机构进入TOP20,中国科学院以838项专利位列全球首位,国家电网公司紧随其后,共有544项专利,此外还包括中国电子科技集团公司、浪潮集团、北京航空航天大学、西安电子科技大学等;美国共有3家机构进入TOP20,赛灵思公司以243项专利位列全球第7位,此外还包括Altera公司、Actel公司;CPLD领域优势机构主要来自中国、美国和韩国。其中,中国共有18家机构进入TOP20,浪潮集团以264项专利位列全球首位,郑州云海信息技术有限公司紧随其后,共有215项专利,此外还包括英业达科技有限公司、国家电网公司、鸿海集团、中国科学院等;美国有1家机构进入TOP20,赛灵思公司以20项专利位列全球第12位。

    第二部分 国内外AI集成电路现状

    1.国内的集成电路产业分布

    集成电路作为技术密集的高科技产业,基本集中在国内较为发达的一二线城市。
    目前形成了以京津冀地区、长三角地区、珠三角地区、中西部地区为核心的四大城市群。

    从芯思想研究院发布的数据看,前十大城市中,长三角占据一半,五席分别是上海、无锡、苏州、合肥、南通;环渤海只有北京一个入围;珠三角和中西部各有两席。
    过百亿的15个城市集成电路产业规模合计为8280亿元,前10大城市集成电路产业规模合计为7370亿元,占比89%。
    在这里插入图片描述在这里插入图片描述

    a.长三角

    上海

    据上海集成电路行业协会的数据,2018年上海集成电路产业规模达1450亿,较2017年实现23%的增长,位居全国各城市之首。
    上海在设计领域,部分企业研发能力已达7纳米,紫光展锐手机基带芯片市场份额位居世界第三。在制造领域,中芯国际、华虹集团年销售额在国内位居前两位,28纳米先进工艺已量产,14纳米工艺研发基本完成。在装备材料领域,中微、上微处于国内领先水平。
    上海集成电路产业投资基金总额500亿元,分为100亿元的装备材料基金、100亿元的设计基金、300亿元的制造基金。基金将加快促进汽车芯片、智能移动芯片、物联网芯片、AI储存器芯片、安全芯片以及智能储存器芯片等高端芯片的研发和生产。

    无锡

    根据江苏省半导体行业协会的最新数据来看,无锡市在2018年集成电路产业规模达1014亿元,较2017年实现14%的增长。
    无锡市当属江苏省集成电路产业发展水平最高的城市,无锡市原计划到2019年集成电路产业规模达1000亿元,提前一年超额完成任务,无疑已是国内集成电路产业第一方阵行列。
    无锡作为“国家南方微电子工业基地中心”,近年来一直在构造集成电路“芯”版图,经年积累形成了较为完备的产业链,集聚了包括华虹半导体、华润微电子、长电科技、中科芯、中德电子(江阴润玛)、江化微、东晨电子、固电半导体、宜兴中环领先等在内的200多家企业,涵盖集成电路设计、制造、封装测试、装备与材料等多个领域,集成电路的全产业链发展格局在锡渐成,勾勒出了无锡集成电路的美丽风景。
    2000年以来,先后成为国家科技部批准的8个国家集成电路设计产业化基地之一、全国仅有的两个由国家发改委认定的国家微电子高新技术产业基地之一(另一家是上海)。
    不过无锡IC设计业偏弱,占比仅为10%;制造业占比25%;封测业占比高达40%,设备材料占比25%。

    苏州

    2018年苏州集成电路产业规模较2017年实现7%增长。
    苏州在集成电路封装测试、集成电路设计、第三代半导体材料等方面保持国内领先,拥有中科院苏州纳米所等为代表的一大批科研院所和龙头企业,随着中科曙光、澜起科技等一批旗舰项目落户,集聚效应已初步形成。目前,苏州市在芯片最有价值的设计领域,已积累了一批实力企业。当前,苏州市重点支持工业园区和昆山等地区发展集成电路封装和测试产业。园区是国内集成电路产业最集中、企业最密集的地区之一,目前已集聚集成电路设计企业40多家。

    合肥

    2018年合肥市集成电路产业规模较2017年实现25%的增长。在长鑫量产后,预计2019年合肥集成电路产业规模会有较大增长。
    在这里插入图片描述

    合肥市打造中国IC之都,被列为全国九大集成电路集聚发展基地之一,计划到2020年集成电路产业规模达500亿,其中设计业100亿,制造业300亿,封测60亿,设备材料40亿。随着晶合集成、长鑫集成的投产以及强势引进的一批设计、材料企业,加上宏实自动化、易芯半导体、大华半导体、芯碁微电子等一批本土企业,合肥已逐步形成了集成电路设计、制造、封测、设备材料等全产业链,并带动其他高科技产业取得了良好的发展态势。
    在这里插入图片描述

    在产业布局上,合肥市现已形成了三大集成电路产业基地——经开区、高新区、新站高新区。2018年9月27日合肥市正式被授牌成为“海峡两岸集成电路产业合作试验区”,合作试验区包括合肥市三大集成电路产业基地——经开区、高新区、新站高新区。
    统计数据显示,去年,合肥市集成电路产量7.31亿块,同比增长11.7%。前段时间,在芯思想研究院发布的2021年中国大陆城市集成电路竞争力排行榜上,合肥市排名已经由2020年的第8名上升至第6名。
    今年一季度,合肥市集成电路产量达到22297.49万块,增长了75.6%。前4个月,合肥市战新产业产值同比增长52.2%,两年平均增长22.5%;作为主要产品中的集成电路增长了56.6%。
    安徽省“十四五”规划纲要提出,未来几年,安徽省将做大做强长鑫、晶合等龙头企业,迅速提升集成电路制造规模和能级,积极参与国家集成电路制造业创新中心等平台建设,打造高效协同的集成电路产业集群。
    当前,合肥市已经确定了“十四五”集成电路产业发展规划的编制第三方单位。接下来,这个规划将提出合肥市全方位提升集成电路产业战略,重点围绕产业定位、发展目标、发展方向、发展路径、招商引资等方面,研究制定合肥市集成电路产业提升的工作部署。
    下一步,合肥市将加快国产集成电路的技术创新步伐,进一步完善“合肥芯”“合肥产”“合肥用”全链条,全面提升集成电路产业集群能级。力争到2025年,全市集成电路产业的产值突破1000亿元。

    南通

    2018年南通集成电路产业规模较2017年实现23%增长。
    近几年南通集成电路产业飞速发展,已初步形成完整产业体系。汇聚了包括通富微电、越亚半导体、京芯光电、捷捷微电子、启微半导体在内的一批企业。

    杭州

    杭州市致力打造集成电路设计创新之都,从杭州市人民政府印发的《杭州市集成电路产业发展规划》可以看出,到2020年年底,全市集成电路产业主营业务收入力争达到500亿元;明确提出集成电路设计业是杭州信息经济创新发展的长期有效的驱动力,重点发展集成电路设计产业,提升全市整机系统企业的核心竞争力。杭州市的行动目标重点发展芯片设计,选择特色芯片、高端存储芯片等芯片的制造,兼顾封装测试与材料的较为完整的集成电路产业链。
    杭州是八个国家集成电路产业设计基地之一,经过多年发展,在集成电路设计领域已经取得了一些优势,汇聚了包括中天微系统、广立微电子、士兰微在内的一批优质公司。目前拥有多个细分领域精尖核心技术,在嵌入式CPU、EDA工具、微波毫米波射频集成电路、数字音视频、数字电视、固态存储(固态硬盘控制器)、计算机接口控制器(包括磁盘阵列和桥接芯片)、LED芯片和光电集成电路等领域技术水平处于国内领先地位,个别甚至处于国际先进水平,进入了国际主流市场。

    南京

    2018年,南京集成电路产业规模实现了56%的增长,一举突破100亿大关。
    南京的集成电路产业主要聚集在江北新区,目前已经拥有台积电、华天科技、长晶科技等一批行业龙头,集聚了260余家集成电路产业企业,覆盖行业内芯片设计、晶圆制造、封装测试、终端制造等全产业链环节。

    b.珠三角

    深圳

    深圳市2018年集成电路产业规模为890亿,较2017年实现34%的增长。
    深圳市的集成电路产业规模位列珠三角地区首位,规划到2023年建成具有国际竞争力的集成电路产业集群。
    深圳作为国内集成电路产业重要聚集区,长期处于设计业龙头位置,在晶圆制造、封装测试领域非常薄弱。根据深圳新的产业规划,当地将补齐芯片制造业和先进封测业产业链缺失环节,聚焦提升芯片设计业能级和技术水平,注重前瞻布局第三代半导体,努力优化产业生态系统,加快关键核心技术攻关,培育龙头骨干企业和集成电路产业集群。

    c.京津冀

    北京

    2018年集成电路产业规模达970亿,较2017年实现8%的增长;排名仅仅次于上海和无锡,位居全国第三。
    北京市规划到2020年建成设具有国际影响力的集成电路产业技术创新基地。经过多年发展,北京形成了 “北(海淀)设计,南(亦庄)制造”的集成电路产业空间布局,积累了一定的“家底儿”。以中芯北方、北方华创、屹唐半导体、集创北方为代表的一批产业链上下游企业,正紧密合作,协同打造北京集成电路产业的“芯”实力。
    天津
    2018年,由于统计口径的不同,天津集成电路产业规模较2017年有20%的下滑。
    天津市致力建成具有国际竞争力的集成电路产业集群,计划到2020年集成电路产业规模达到600亿元。天津集成电路产业逐步形成了IC设计、芯片制造、封装测试三业并举、新型半导体材料与高端设备支撑配套业共同发展的相对完整的产业链格局,聚拢了集成电路企业百余家,聚集了紫光展锐、唯捷创芯、国芯等一批国内集成电路设计龙头企业;芯片制造业拥有中芯国际、中环股份、诺思科技等知名企业;封装测试业有恩智浦半导体、金海通、双竞科技等重点企业;材料与设备支撑业聚集了中环半导体、中电46所、华海清科等企业。

    d.陕川渝

    成都

    2018年成都集成电路产业规模较2017年实现23%增长。
    成都市要跻身国内集成电路设计第一方阵,打造中国“芯”高地,规划到2035年集成电路产业规模3400亿元。这个规划周期确实有点远。
    成都的集成电路产业主要集聚在高新区。在芯片设计方面,拥有各类设计公司120多家,包括振芯科技、锐成芯微、和芯微、雷电微力、华大九天、华为海思、新华三等各具特色的企业,设计领域涵盖网络通讯、智能家电、物联网、北斗导航、IP等;在晶圆制造方面,拥有德州仪器8英寸晶圆生产线;在半导体封测方面,成都拥有华天科技(原宇芯)、士兰微、英特尔、德州仪器、芯源系统(MPS)等近十家封装测试企业,形成西南最大的芯片封装测试基地。。

    西安

    2018年西安集成电路产业规模较2017年实现5%增长。
    西安市打造集成电路产业新高地,规划在2021年集成电路产业规模达1000亿元。西安依靠三星电子存储芯片项目和华天科技西安、美光/力成封装项目,大大增强了西安在集成电路产业中的竞争力。
    目前西安形成了从半导体设备和材料的研制与生产,到集成电路设计、制造、封装测试及系统应用的较完整产业链。
    从整个产业链的发展情况来看,西安集成电路产业已经形成制造业一枝独秀,设计业与封装测试业相互依存、协调发展的产业格局。

    重庆

    重庆市规划到2022年力争成为中国集成电路创新高地,集成电路产业规模达1000亿。重庆一直是我国重要的电子信息产业基地,但电子信息产业需要高水平集成电路技术支撑产业发展。重庆将养生培育高端功率半导体芯片项目,重点解决制约集成电路产业发展的技术问题和创新生态问题,实现重庆产芯片产品全面支撑重庆市智能终端、物联网、汽车电子、智能制造、仪器仪表、5G通信等电子信息领域应用需求。
    重庆的集成电路产业主要集中在西永微电子产业园区,园区已构建从EDA平台、共享IP库、芯片设计、制造到封装测试的集成电路全新产业生态,吸引了华润微电子、SK海力士、中国电科、西南集成等一批知名集成电路企业聚集发展。目前正全力打造全球协同研发创新平台UMEC联合微电子中心、全国最大功率半导体基地和韩国SK海力士集团全球最大的芯片封装测试工厂。

    e.其他

    厦门

    2018年厦门集成电路产业规模突破400亿关口。
    厦门市是国家集成电路布局规划重点城市,致力构建集成电路全产业链,规划到2025年集成电路产业将达1500亿元。厦门已经形成火炬高新区、海沧区、自贸试验区湖里片区三个集成电路集聚区,目前成功引进了一大批龙头项目,初步覆盖集成电路设计、制造、封测、装备与材料以及应用等产业链环节,聚集了三安光电、联芯集成、士兰微、通富微电、紫光展锐、瀚天天成、美日丰创等200多家集成电路企业,部分环节的生产力达到国际一流水平。

    大连

    2018年大连市集成电路产业规模较2017年实现60%增长,其中英特尔大连就高达227亿。
    大连市要打造世界级集成电路产业基地,计划到2025年集成电路产业规模达500亿。2108年随着英特尔大连工厂二期扩建项目投产,有力助推大连市集成电路产业发展水平迈向新的高度。

    2.国内AI芯片发展现状

    2020中国人工智能芯片企业TOP50
    在这里插入图片描述

    可以说,国内各个单位在人工智能处理器领域的发展和应用与国外相比依然存在很大的差距。由于我国特殊的环境和市场,国内人工智能处理器的发展呈现出百花齐放、百家争鸣的态势,这些单位的应用领域遍布股票交易、金融、商品推荐、安防、早教机器人以及无人驾驶等众多领域,催生了大量的人工智能芯片创业公司,如地平线、深鉴科技、中科寒武纪等。尽管如此,国内起步较早的中科寒武纪却并未如国外大厂一样形成市场规模,与其他厂商一样,存在着各自为政的散裂发展现状。

    a.全球AI芯片界首个独角兽——寒武纪

    2017年8月,国内AI芯片初创公司寒武纪宣布已经完成1亿美元A轮融资,战略投资方可谓阵容豪华,阿里巴巴、联想、科大讯飞等企业均参与投资。而其公司也成为全球AI芯片界首个独角兽,受到国内外市场广泛关注。
    寒武纪科技主要负责研发生产AI芯片,公司最主要的产品为2016年发布的寒武纪1A处理器(Cambricon-1A),是一款可以深度学习的神经网络专用处理器,面向智能手机、无人机、安防监控、可穿戴设备以及智能驾驶等各类终端设备,在运行主流智能算法时性能功耗比全面超越传统处理器。目前已经研发出1A、1H等多种型号。与此同时,寒武纪也推出了面向开发者的寒武纪人工智能软件平台 Cambricon NeuWare,包含开发、调试和调优三大部分。

    b.软硬件协同发展的典范——深鉴科技

    深鉴科技的联合创始人韩松在不同场合曾多次提及软硬件协同设计对人工智能处理器的重要性,而其在FPGA领域顶级会议FPGA2017最佳论文ESE硬件架构就是最好的证明。该项工作聚焦于使用 LSTM 进行语音识别的场景,结合深度压缩(Deep Compression)、专用编译器以及 ESE 专用处理器架构,在中端的 FPGA 上即可取得比 Pascal Titan X GPU 高 3 倍的性能,并将功耗降低 3.5 倍。
    在2017年10月的时候,深鉴科技推出了六款AI产品,分别是人脸检测识别模组、人脸分析解决方案、视频结构化解决方案、ARISTOTLE架构平台,深度学习SDK DNNDK、双目深度视觉套件。而在人工智能芯片方面,公布了最新的芯片计划,由深鉴科技自主研发的芯片“听涛”、“观海”将于2018年第三季度面市,该芯片采用台积电28nm工艺,亚里士多德架构,峰值性能 3.7 TOPS/W。

    c.对标谷歌TPU——比特大陆算丰

    作为比特币独角兽的比特大陆,在2015年开始涉足人工智能领域,其在2017年发布的面向AI应用的张量处理器算丰Sophon BM1680,是继谷歌TPU之后,全球又一款专门用于张量计算加速的专用芯片(ASIC),适用于CNN / RNN / DNN的训练和推理。
    BM1680单芯片能够提供2TFlops单精度加速计算能力,芯片由64 NPU构成,特殊设计的NPU调度引擎(Scheduling Engine)可以提供强大的数据吞吐能力,将数据输入到神经元核心(Neuron Processor Cores)。BM1680采用改进型脉动阵列结构。2018年比特大陆将发布第2代算丰AI芯片BM1682,计算力将有大幅提升。

    3. 国外AI芯片发展现状

    技术寡头,优势明显
    由于具有得天独厚的技术和应用优势,英伟达和谷歌几乎占据了人工智能处理领域80%的市场份额,而且在谷歌宣布其Cloud TPU开放服务和英伟达推出自动驾驶处理器Xavier之后,这一份额占比在2018年有望进一步扩大。其他厂商,如英特尔、特斯拉、ARM、IBM以及Cadence等,也在人工智能处理器领域占有一席之地。

    当然,上述这些公司的专注领域却不尽相同。比如英伟达主要专注于GPU和无人驾驶领域,而谷歌则主
    要针对云端市场,英特尔则主要面向计算机视觉,Cadence则以提供加速神经网络计算相关IP为主。如果说前述这些公司还主要偏向处理器设计等硬件领域,那么ARM公司则主要偏向软件,致力于针对机器学习和人工智能提供高效算法库。

    a.独占鳌头——英伟达

    在人工智能领域,英伟达可以说是目前涉及面最广、市场份额最大的公司,旗下产品线遍布自动驾驶汽车、高性能计算、机器人、医疗保健、云计算、游戏视频等众多领域。其针对自动驾驶汽车领域的全新人工智能超级计算机Xavier,用NVIDIA首席执行官黄仁勋的话来说就是“这是我所知道的 SoC 领域非常了不起的尝试,我们长期以来一直致力于开发芯片。”
    Xavier 是一款完整的片上系统 (SoC),集成了被称为 Volta 的全新 GPU 架构、定制 8 核 CPU 架构以及新的计算机视觉加速器(CVA)。该处理器提供 20 TOPS(万亿次运算/秒)的高性能,而功耗仅为 20 瓦。单个 Xavier 人工智能处理器包含 70 亿个晶体管,采用最前沿的 16nm FinFET 加工技术进行制造,能够取代目前配置了两个移动 SoC 和两个独立 GPU 的 DRIVE PX 2,而功耗仅仅是它的一小部分。
    而在2018年拉斯维加斯CES展会上,NVIDIA又推出了三款基于Xavier的人工智能处理器,包括一款专注于将增强现实(AR)技术应用于汽车的产品、一款进一步简化车内人工智能助手构建和部署的DRIVE IX和一款对其现有自主出租车大脑——Pegasus的修改,进一步扩大自己的优势。

    b.产学研的集大成者——谷歌

    如果你只是知道谷歌的AlphaGo、无人驾驶和TPU等这些人工智能相关的产品,那么你还应该知道这些产品背后的技术大牛们:谷歌传奇芯片工程师Jeff Dean、谷歌云计算团队首席科学家、斯坦福大学AI实验室主管李飞飞、Alphabet董事长John Hennessy和谷歌杰出工程师David Patterson。
    时至今日,摩尔定律遇到了技术和经济上的双重瓶颈,处理器性能的增长速度越来越慢,然而社会对于计算能力的需求增速却并未减缓,甚至在移动应用、大数据、人工智能等新的应用兴起后,对于计算能力、计算功耗和计算成本等提出了新的要求。与完全依赖于通用CPU及其编程模型的传统软件编写模式不同,异构计算的整个系统包含了多种基于特定领域架构 (Domain-Specific Architecture, DSA)设计的处理单元,每一个DSA处理单元都有负责的独特领域并针对该领域做优化,当计算机系统遇到相关计算时便由相应的DSA处理器去负责。而谷歌就是异构计算的践行者,TPU就是异构计算在人工智能应用的一个很好例子。
    2017年发布的第二代TPU芯片,不仅加深了人工智能在学习和推理方面的能力,而且谷歌是认真地要将它推向市场。根据谷歌的内部测试,第二代芯片针对机器学习的训练速度能比现在市场上的图形芯片(GPU)节省一半时间;第二代TPU包括了四个芯片,每秒可处理180万亿次浮点运算;如果将64个TPU组合到一起,升级为所谓的TPU Pods,则可提供大约11500万亿次浮点运算能力。

    c.计算机视觉领域的搅局者——英特尔

    英特尔作为世界上最大的计算机芯片制造商,近年来一直在寻求计算机以外的市场,其中人工智能芯片争夺成为英特尔的核心战略之一。为了加强在人工智能芯片领域的实力,不仅以167亿美元收购FPGA生产商Altera公司,还以153亿美元收购自动驾驶技术公司Mobileye,以及机器视觉公司Movidius和为自动驾驶汽车芯片提供安全工具的公司Yogitech,背后凸显这家在PC时代处于核心位置的巨头面向未来的积极转型。

    展开全文
  • 根据Gartner、IDC等数据,全球对人工智能应用的需求逐步提升,2020年全球AI芯片市场规模可以达到101亿美元,预计2025年可以达到726亿美元,2020年至2025年CAGR可达到48.4%;同时,边缘计算被视为人工智能的下一个...
  • 人工智能芯片技术体系研究综述.pdf
  • 人工智能芯片与传统芯片的区别

    万次阅读 多人点赞 2018-06-17 11:03:12
    作为AI和芯片两大领域的交差点,AI芯片已经成了最热门的投资领域,各种AI芯片如雨后春笋冒出来,但是AI芯片领域生存环境恶劣,能活下来的企业将是凤毛麟角。 谷歌在I/O大会发布了其第三代TPU,并宣称其性能比去年...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 71,051
精华内容 28,420
关键字:

人工智能芯片

友情链接: src.zip