订阅业界RSS CSDN首页> 业界

面向计算机视觉的深度学习

发表于2019-03-18 18:01| 来源intel| 作者intel

摘要:在多个英特尔 平台 - CPU 、 GPU 、 FPGA 和 VPU 上优化深度学习解决方案,并加速卷积神经网络 (CNN) 工作负载。 英特尔 深度学习部署工具套件。 借助与应用逻辑集成的高级 C++ 推理引擎 API ,该工具套件支持开发人员部署预训练深度学习模型。它支持多个英特尔 平台,随英特尔 OpenVINO 工具套件分发版提供。...

在多个英特尔® 平台 - CPUGPUFPGA VPU 上优化深度学习解决方案,并加速卷积神经网络 (CNN) 工作负载。

英特尔® 深度学习部署工具套件。

借助与应用逻辑集成的高级 C++ 推理引擎 API,该工具套件支持开发人员部署预训练深度学习模型。它支持多个英特尔® 平台,随英特尔® OpenVINO® 工具套件分发版提供。

该工具套件包括以下两个组件:

模型优化器

这款基于 Python* 的命令行工具从热门深度学习框架(如 Caffe*TensorFlow*Apache MXNet* 和开放神经网络交换 (ONNX))导入经过训练的模型。

·       可在 Windows* Linux* 上运行

·       在端点目标设备上使用静态训练后模型执行分析和调整,以便实现最佳执行

·       序列化并调整模型,将其转换为英特尔中间表示 (IR) 格式。

·       支持面向 CaffeTensorFlowMXNet ONNX 100 多个公共模型

为包含标准层的模型生成 IR 文件时,不需要标准框架。处理原始模型的自定义层时,模型优化器提供灵活的扩展机制。

推理引擎

该执行引擎使用通用 API 在您选择的平台(CPUGPUVPU FPGA)上交付推理解决方案。

·       在不同目标上执行不同的模型拓扑层(例如,GPU CPU 上选定的模型拓扑层)

·       CPU 上实施自定义模型拓扑层,同时在 GPU 上执行其余模型拓扑层,无需重写自定义模型拓扑层

·       使用嵌入式友好度评分策略优化目标硬件的执行(计算图分析、调度和模型压缩)

·       利用全新异构执行提升帧速率性能,同时限制无用循环

·       使用便捷的 C++ API 处理 IR 文件并优化推理

推理支持

除了支持带集成显卡和不带集成显卡的处理器之外,该工具套件还可加速英特尔® 可编程加速卡和英特尔® Movidius® 视觉处理单元。为了获取最佳体验,使用配备英特尔® Movidius® 神经计算棒的工具套件和基于英特尔® Arria® 10 FPGA GX 的加速卡。

工作原理

支持深度学习的典型计算机视觉管道可能包括常规视觉函数(如图像预处理)和 CNNCNN 图在 FPGA 附加卡或英特尔® Movidius 神经计算棒上加速,其余视觉管道在基于英特尔® 架构的主机处理器上执行。

英特尔® FPGA 支持

 

推理引擎示例应用

 

英特尔® Movidius 神经计算棒支持指南

 

 

发现丰富功能

传统计算机视觉

 

开发并优化使用 OpenCV 库或 OpenVX API 构建的经典计算机视觉应用。

硬件加速

利用基于英特尔® 的加速器性能:CPUGPUFPGAVPU IPU