订阅业界RSS CSDN首页> 业界

QTI宣布支持ONNX,简化开发者的AI选择

发表于2017-11-09 09:52| 次阅读| 来源Qualcomm| 0 条评论| 作者Gary Brotman

摘要: 你已经开始正在开始发神经网络和人工智能(AI)项目了吗?是否发现选择机器学习框架比较困难——选择Caffe2,Caffe,TensorFlow,Microsoft Cognitive Toolkit还是PyTorch?

你已经开始研发神经网络和人工智能(AI)项目了吗?是否发现选择机器学习框架比较困难——选择Caffe2,Caffe,TensorFlow,Microsoft Cognitive Toolkit还是PyTorch?不论是培训自己的模型还是使用免费模型,你都想选择一种从研发一直到生产都可以使用的框架。

Qualcomm Technologies,Inc.(QTI)加入ONNX

今年9月,Facebook和微软发布了开放神经网络交换(ONNX)格式。ONNX是一种互换格式,这种转换格式使得创建框架之间转换深度学习模型模型成为可能。

利用ONNX,Facebook可以利用通过比如PyTorch训练的模型,配合Facebook首选框架Caffe2使用,用于机器学习的推理阶段。而微软宣布旗下认知工具包支持ONNX,首先用于推理。

此项举措和我们的目标相契合,即通过骁龙神经处理引擎(NPE)SDK加速Qualcomm®骁龙™移动平台神经网络执行任务。因此,QTI很乐意加入ONNX,这将有助于开发者更轻松地利用多个框架。

ONNX对OEM、ODM和开发者意味着什么?

开放性通常有利于开发者,所以有几种方法可让您的AI应用受益于ONNX:

· 如果您已经在使用NPE SDK在移动设备网络边缘运行应用,如对象跟踪、自然语言处理和语音识别等应用,ONNX可以为您提供更多部署模型的自由。

· 如果您已经优化了神经网络的性能并希望分享它们,ONNX将有助于扩大可使用这些神经网络的AI开发者的范围。此外,它也有助于拓宽可供借鉴的模型范围。

· 我们必须承认:每次出现新的技术,开发者都不得不做出平台选择。编程语言、架构、开发环境、机器学习工具。. . 每次作出选择,您和团队在很长时间里都要与之和谐相处。借助ONNX,可以降低因为所选择的机器学习框架而使自己和应用落到尴尬地步的风险。

ONNX将使得研究到生产的过程更加顺利。

接下来

好奇吗?您现在可以在GitHub上找到ONNX源代码、文档、二进制文件、Docker镜像和教程。尝试ONNX。我们将随时向您公布有关Snapdragon产品组合集成ONNX的进展。


更多Qualcomm开发内容请详见:Qualcomm开发社区

0
0