精华内容
下载资源
问答
  • docker run -it -v /dev/shm:/dev/shm --runtime=nvidia --privileged=true mindspore/mindspore-gpu:1.1.0 /bin/bash To test if the docker image works, please execute the python code below and check the ...
  • docker run -it --runtime=nvidia --privileged=true mindspore/mindspore-gpu:0.7.0-beta /bin/bash To test if the docker image works, please execute the python code below and check the output: import ...
  • MindSpore张量mindspore::tensor MSTensor #include <ms_tensor.h> MSTensor定义了MindSpore Lite中的张量。 构造函数和析构函数 MSTensor MSTensor() MindSpore Lite MSTensor的构造函数。 • 返回值 ...

    MindSpore张量mindspore::tensor
    MSTensor
    #include <ms_tensor.h>
    MSTensor定义了MindSpore Lite中的张量。
    构造函数和析构函数
    MSTensor
    MSTensor()
    MindSpore Lite MSTensor的构造函数。
    • 返回值
    MindSpore Lite MSTensor的实例。
    ~MSTensor
    virtual ~MSTensor()
    MindSpore Lite Model的析构函数。
    公有成员函数
    data_type
    virtual TypeId data_type() const
    获取MindSpore Lite MSTensor的数据类型。
    TypeId在mindspore/mindspore/core/ir/dtype/type_id.h中定义。只有TypeId枚举中的数字类型或kObjectTypeString可用于MSTensor。
    • 返回值
    MindSpore Lite MSTensor类的MindSpore Lite TypeId。
    shape
    virtual std::vector shape() const
    获取MindSpore Lite MSTensor的形状。
    • 返回值
    一个包含MindSpore Lite MSTensor形状数值的整型向量。
    DimensionSize
    virtual int DimensionSize(size_t index) const
    通过参数索引获取MindSpore Lite MSTensor的维度的大小。
    • 参数
    o index: 定义了返回的维度的索引。
    • 返回值
    MindSpore Lite MSTensor的维度的大小。
    ElementsNum
    virtual int ElementsNum() const
    获取MSTensor中的元素个数。
    • 返回值
    MSTensor中的元素个数
    Size
    virtual size_t Size() const
    获取MSTensor中的数据的字节数大小。
    • 返回值
    MSTensor中的数据的字节数大小。
    MutableData
    virtual void *MutableData() const
    获取MSTensor中的数据的指针。
    该数据指针可用于对MSTensor中的数据进行读取和写入。
    • 返回值
    指向MSTensor中的数据的指针。

    展开全文
  • mindspore安装

    2021-01-13 11:00:38
    Mindspore安装 首先就是安装安装了 官网的安装教程!!! 注意python3.7.5版本 建立虚拟环境 conda create -n mindspore python=3.7.5 这里还是怀念实验室的网速,在家里真的自闭! 激活虚拟环境 activate ...

    Mindspore安装

    首先就是安装安装了
    官网的安装教程!!!
    注意python3.7.5版本
    建立虚拟环境

    conda create -n mindspore python=3.7.5
    

    这里还是怀念实验室的网速,在家里真的自闭!

    激活虚拟环境

    activate mindspore
    

    安装mindspore,去官网粘贴就好
    在这里插入图片描述

    pip install https://ms-release.obs.cn-north-4.myhuaweicloud.com/1.1.0/MindSpore/cpu/windows_x64/mindspore-1.1.0-cp37-cp37m-win_amd64.whl --trusted-host ms-release.obs.cn-north-4.myhuaweicloud.com -i https://pypi.tuna.tsinghua.edu.cn/simple
    

    经历了漫长等待。。。ten years later
    在这里插入图片描述
    验证是否安装成功

    python -c "import mindspore;print(mindspore.__version__)"
    

    成功惹哈哈哈哈哈哈
    在这里插入图片描述
    然后就等我的书到了开始学习吧~~~ 假期愉快!

    展开全文
  • 华为MindSpore

    千次阅读 2019-08-25 10:42:22
    华为MindSpore2019年8月23日,华为发布了全场景 AI 计算框架 MindSpore,并宣布 “MindSpore 将在2020年第一季度开源”。这是与 TensorFlow、PyTorch、PaddlePaddle 等框架竞争的一款产品。 2019年8月23日,华为...

    华为MindSpore


    开源MindSpore

    2019年8月23日,华为发布了全场景 AI 计算框架 MindSpore,并宣布 “MindSpore 将在2020年第一季度开源”。这是与 TensorFlow、PyTorch、PaddlePaddle 等框架竞争的一款产品。

    华为在AI 框架的开发态友好(例如显著减少训练时间和成本)和运行态高效(例如最少资源和最高能效比)、适应每个场景(包括端、边缘和云)这三个方面都取得了显著进展:

    1. 在原生适应每个场景包括端,边缘和云,并能够按需协同的基础上,通过实现 AI 算法即代码,提供一系列的关键技术,例如
      MindSpore 自动微分,采用 Source 2 Source 方式实现,在性能和可编程性上,明显优于业界图和运算符重载方式。能够实现任意算子的微分表达和编译优化,同时实现反向算子自动生成,使开发态变得更加友好,显著减少模型开发时间,降低了模型开发门槛。相比手工切分的模型并行的门槛高、效率低、调优难,MindSpore 只需定义单机模型,即可自动实现多机混合并行运行,无需了解 AI 集群细节。以一个 NLP(自然语言处理)典型网络为例,相比其他框架,用 MindSpore 可降低核心代码量 20%,开发门槛大大降低,效率整体提升 50% 以上。
    2. 通过 MindSpore 框架自身的技术创新及其与昇腾处理器协同优化,有效克服 AI 计算的复杂性和算力的多样性挑战,实现了运行态的高效,大大提高了计算性能。除了昇腾处理器,MindSpore 同时也支持 GPU、CPU 等其它处理器。
    3. 全场景支持,是在隐私保护日渐重要的背景下,实现 AI 无所不在越来越基础的需求,现在已有的 TensorFlow、PyTorch
      框架,还没有任何一个现有框架支持全场景,这正是 MindSpore 的重要特色。针对不同的运行环境,MindSpore 框架架构支持可大可小,适应全场景独立部署。MindSpore 框架通过协同经过处理后的、不带有隐私信息的梯度、模型信息,而不是数据本身,以此实现在保证用户隐私数据保护的前提下跨场景协同。

    MindSpore 在设备端的深度学习框架,其容量只有不到 2m 大小,运行时占用内存不到 50m。华为表示,MindSpore 同时也支持目前所有主流深度学习框架中的模型。在框架之上,华为还为开发者提供了更为高级的 ModelArts,这是一个机器学习PaaS,提供全流程服务、分层分级 API 及预集成解决方案。

    相关内容:

    人工智能框架相当于AI世界的操作系统,除了华为的框架,最典型的代表是谷歌的人工智能框Tensorflow、Facebook的Pytorch,并且已经大规模地投入应用。当下,巨头的智能框架基本都是基于开源模式来构建自己的生态。

    昇腾910总体技术表现超出预期,已经把昇腾910用于实际AI训练任务。比如,在典型的ResNet50网络的训练中,昇腾910与MindSpore配合,与现有主流训练单卡配合TensorFlow相比,显示出接近2倍的性能提升。
    华为AI架构

    以上内容来源互联网,若侵权请告知。
    
    展开全文
  • MindSpore接口mindspore::api Context #include <context.h> Context类用于保存执行中的环境变量。 静态公有成员函数 Instance static Context &Instance(); 获取MindSpore Context实例对象。 公有成员...

    MindSpore接口mindspore::api
    Context
    #include <context.h>
    Context类用于保存执行中的环境变量。
    静态公有成员函数
    Instance
    static Context &Instance();
    获取MindSpore Context实例对象。
    公有成员函数
    GetDeviceTarget
    const std::string &GetDeviceTarget() const;
    获取当前目标Device类型。
    • 返回值
    当前DeviceTarget的类型。
    GetDeviceID
    uint32_t GetDeviceID() const;
    获取当前Device ID。
    • 返回值
    当前Device ID。
    SetDeviceTarget
    Context &SetDeviceTarget(const std::string &device_target);
    配置目标Device。
    • 参数
    o device_target: 将要配置的目标Device,可选有kDeviceTypeAscend310、kDeviceTypeAscend910。
    • 返回值
    该MindSpore Context实例对象。
    SetDeviceID
    Context &SetDeviceID(uint32_t device_id);
    获取当前Device ID。
    • 参数
    o device_id: 将要配置的Device ID。
    • 返回值
    该MindSpore Context实例对象。
    Serialization
    #include <serialization.h>
    Serialization类汇总了模型文件读写的方法。
    静态公有成员函数
    LoadModel
    • 参数
    o file: 模型文件路径。
    o model_type:模型文件类型,可选有ModelType::kMindIR、ModelType::kOM。
    • 返回值
    保存图数据的对象。
    Model
    #include <model.h>
    Model定义了MindSpore中的模型,便于计算图管理。
    构造函数和析构函数
    Model(const GraphCell &graph);
    ~Model();
    GraphCell是Cell的一个派生,Cell目前没有开放使用。GraphCell可以由Graph构造,如Model model(GraphCell(graph))。
    公有成员函数
    Build
    Status Build(const std::map<std::string, std::string> &options);
    将模型编译至可在Device上运行的状态。
    • 参数
    o options: 模型编译选项,key为选项名,value为对应选项,支持的options有:
    Key Value
    kModelOptionInsertOpCfgPath AIPP配置文件路径

    kModelOptionInputFormat 手动指定模型输入format,可选有"NCHW",“NHWC"等
    kModelOptionInputShape 手动指定模型输入shape,如"input_op_name1: n1,c2,h3,w4;input_op_name2: n4,c3,h2,w1”
    kModelOptionOutputType 手动指定模型输出type,如"FP16",“UINT8"等,默认为"FP32”
    kModelOptionPrecisionMode 模型精度模式,可选有"force_fp16",“allow_fp32_to_fp16”,“must_keep_origin_dtype"或者"allow_mix_precision”,默认为"force_fp16"
    kModelOptionOpSelectImplMode 算子选择模式,可选有"high_performance"和"high_precision",默认为"high_performance"
    • 返回值
    状态码。
    Predict
    Status Predict(const std::vector &inputs, std::vector *outputs);
    推理模型。
    • 参数
    o inputs: 模型输入按顺序排列的vector。
    o outputs: 输出参数,按顺序排列的vector的指针,模型输出会按顺序填入该容器。
    • 返回值
    状态码。
    GetInputsInfo
    Status GetInputsInfo(std::vectorstd::string *names, std::vector<std::vector<int64_t>> *shapes, std::vector *data_types, std::vector<size_t> *mem_sizes) const;
    获取模型输入信息。
    • 参数
    o names: 可选输出参数,模型输入按顺序排列的vector的指针,模型输入的name会按顺序填入该容器,传入nullptr则表示不获取该属性。
    o shapes: 可选输出参数,模型输入按顺序排列的vector的指针,模型输入的shape会按顺序填入该容器,传入nullptr则表示不获取该属性。
    o data_types: 可选输出参数,模型输入按顺序排列的vector的指针,模型输入的数据类型会按顺序填入该容器,传入nullptr则表示不获取该属性。
    o mem_sizes: 可选输出参数,模型输入按顺序排列的vector的指针,模型输入的以字节为单位的内存长度会按顺序填入该容器,传入nullptr则表示不获取该属性。
    • 返回值
    状态码。
    GetOutputsInfo
    Status GetOutputsInfo(std::vectorstd::string *names, std::vector<std::vector<int64_t>> *shapes, std::vector *data_types, std::vector<size_t> *mem_sizes) const;
    获取模型输出信息。
    • 参数
    o names: 可选输出参数,模型输出按顺序排列的vector的指针,模型输出的name会按顺序填入该容器,传入nullptr则表示不获取该属性。
    o shapes: 可选输出参数,模型输出按顺序排列的vector的指针,模型输出的shape会按顺序填入该容器,传入nullptr则表示不获取该属性。
    o data_types: 可选输出参数,模型输出按顺序排列的vector的指针,模型输出的数据类型会按顺序填入该容器,传入nullptr则表示不获取该属性。
    o mem_sizes: 可选输出参数,模型输出按顺序排列的vector的指针,模型输出的以字节为单位的内存长度会按顺序填入该容器,传入nullptr则表示不获取该属性。
    • 返回值
    状态码。
    Tensor
    #include <types.h>
    构造函数和析构函数
    Tensor();
    Tensor(const std::string &name, DataType type, const std::vector<int64_t> &shape, const void *data, size_t data_len);
    ~Tensor();
    静态公有成员函数
    GetTypeSize
    static int GetTypeSize(api::DataType type);
    获取数据类型的内存长度,以字节为单位。
    • 参数
    o type: 数据类型。
    • 返回值
    内存长度,单位是字节。
    公有成员函数
    Name
    const std::string &Name() const;
    获取Tensor的名字。
    • 返回值
    Tensor的名字。
    DataType
    api::DataType DataType() const;
    获取Tensor的数据类型。
    • 返回值
    Tensor的数据类型。
    Shape
    const std::vector<int64_t> &Shape() const;
    获取Tensor的Shape。
    • 返回值
    Tensor的Shape。
    SetName
    void SetName(const std::string &name);
    设置Tensor的名字。
    • 参数
    o name: 将要设置的name。
    SetDataType
    void SetDataType(api::DataType type);
    设置Tensor的数据类型。
    • 参数
    o type: 将要设置的type。
    SetShape
    void SetShape(const std::vector<int64_t> &shape);
    设置Tensor的Shape。
    • 参数
    o shape: 将要设置的shape。
    Data
    const void *Data() const;
    获取Tensor中的数据的const指针。
    • 返回值
    指向Tensor中的数据的const指针。
    MutableData
    void *MutableData();
    获取Tensor中的数据的指针。
    • 返回值
    指向Tensor中的数据的指针。
    DataSize
    size_t DataSize() const;
    获取Tensor中的数据的以字节为单位的内存长度。
    • 返回值
    Tensor中的数据的以字节为单位的内存长度。
    ResizeData
    bool ResizeData(size_t data_len);
    重新调整Tensor的内存大小。
    • 参数
    o data_len: 调整后的内存字节数。
    • 返回值
    bool值表示是否成功。
    SetData
    bool SetData(const void *data, size_t data_len);
    重新调整Tensor的内存数据。
    • 参数
    o data: 源数据内存地址。
    o data_len: 源数据内存长度。
    • 返回值
    bool值表示是否成功。
    ElementNum
    int64_t ElementNum() const;
    获取Tensor中元素的个数。
    • 返回值
    Tensor中的元素个数
    Clone
    Tensor Clone() const;
    拷贝一份自身的副本。
    • 返回值
    深拷贝的副本。

    展开全文
  • Performer_mindspore 参考: :
  • MindSpore学习

    2020-05-10 22:25:48
    MindSpore是华为推出的一款对标Pytorch的深度学习框架,目前
  • MindSpore数据集mindspore::dataset ResizeBilinear #include <image_process.h> bool ResizeBilinear(LiteMat &src, LiteMat &dst, int dst_w, int dst_h) 通过双线性算法调整图像大小,当前仅支持的...
  • MindSpore 开源AI计算框架
  • mindspore-nlp-教程 mindspore-nlp-tutorial是针对谁正在使用MindSpore研究NLP(自然语言处理)的教程。 该存储库是从迁移的。 NLP中的大多数模型都是从Pytorch版本迁移而来的,少于100行代码(注释或空白行除外) ...
  • Adding MindSpore examples

    2020-11-28 10:39:13
    <div><p>Adding two examples for MindSpore running on Volcano, one CPU example which trains LeNet with MNIST dataset and one GPU example which tests the communication capability of MindSpore....
  • MindSpore函数拟合

    2021-05-27 06:34:17
    在前面一篇博客中我们介绍过基于docker的mindspore编程环境配置,这里我们基于这个环境,使用mindspore来拟合一个线性的函数,演示一下mindspore的基本用法。 环境准备 在Manjaro Linux上先用如下命令启动docker容器...
  • MindSpore基本原理

    2021-01-23 06:53:16
    MindSpore基本原理 • MindSpore介绍 o 自动微分 o 自动并行 • 安装 o pip方式安装 o 源码编译方式安装 o Docker镜像 • 快速入门 • 文档 • 社区 o 治理 o 交流 • 贡献 • 分支维护策略 • 现有分支维护状态 • ...
  • MindSpore LSTM QuickStart

    2020-05-31 20:21:58
    MindSpore LSTM 快入MindSpore 框架LSTM 运行安装命令GPU环境获取云端运行 MindSpore 框架 引用老师木文章深度学习框架的灵魂,“Mindspore 个人带来了惊喜,在众所周知的难题上勇闯无人区,auto-parallel完成度很高...
  • adding mindspore example

    2020-12-06 13:15:23
    <div><p>Sorry, messed up with last pr, closed and created a new one Adding examples for MindSpore running on Volcano</p><p>该提问来源于开源项目:volcano-sh/volcano</p></div>
  • MindSpore Lite 体验

    2020-09-13 17:09:05
    MindSpore Lite体验 MindSpore Lite是MindSpore八月发布的针对手机以及IoT场景,端到端的解决方案。简单地说,就是可以在手机以及IoT设备上部署MindSpore框架训练的AI模型。 上手体验 下载官方代码样例—图片分类...
  • MindSpore基准性能

    2021-01-24 06:29:22
    MindSpore基准性能 本文介绍MindSpore的基准性能。MindSpore网络定义可参考Model Zoo。 训练性能 ResNet 以上数据基于华为云AI开发平台ModelArts测试获得,是训练过程整体下沉至Ascend 910 AI处理器执行所得的...
  • MindSpore安装教程

    2020-12-29 16:01:11
    此处采用pyenv来创建MindSpore环境,首先查看是否有3.7.5版本: pyenv versions CUDA-10.1 尝试过直接使用CUDA10.2,但是在运行from mindspore import Tensor时会出现ImportError: libcudart.so.10.1: cannot open ...
  • MindSpore模型推理

    2021-01-25 06:14:41
    MindSpore模型推理 如果想在应用中使用自定义的MindSpore Lite模型,需要告知推理器模型所在的位置。推理器加载模型的方式有以下三种: • 加载本地模型。 • 加载远程模型。 • 混合加载本地和远程模型。 加载模型 ...
  • MindSpore模型验证

    2021-05-27 06:11:22
    在前面一篇博客中,我们介绍了MindSpore在机器学习过程中保存和加载模型的方法。这种将模型存储为静态文件的做法,使得我们可以更灵活的使用训练出来的模型,比如用于各种数据集的验证,或者是迁移学习等场景。 前言...
  • 本文是在宿主机Ubuntu16.04上安装Docker,并成功进行MindSpore1.0.0的GPU训练; Ubuntu 16.04 Docker Nvidia-docker (cuda:10.1-base) mindspore-gpu:1.0.0 Dokcer hub上配置好的mindspore-gpu镜像 一、 先讲述...
  • MindSpore整体架构介绍

    2021-01-23 07:03:20
    MindSpore框架架构总体分为MindSpore前端表示层、MindSpore计算图引擎和MindSpore后端运行时三层。 • MindSpore前端表示层(MindExpression,简称ME) 该部分包含Python API、MindSpore IR(Intermediate ...
  • MindSpore应用目标

    2021-01-23 09:33:06
    MindSpore应用目标 以下将展示MindSpore近一年的高阶计划,会根据用户的反馈诉求,持续调整计划的优先级。 总体而言,会努力在以下几个方面不断改进。 提供更多的预置模型支持。 持续补齐API和算子库,改善易用性和...
  • Mindspore的快速上手

    2020-08-09 20:48:28
    Mindspore快速上手 本周末参加了华为mindspore深度学习框架的第三期训练营。在这次训练营中,mindspore由上次的0.3版本迅速的增加到了0.6版本。课程安排是这样的: 第一天: 1、快速上手mindspore指南 2、学习...
  • MindSpore平台系统类

    2021-01-24 07:23:39
    MindSpore平台系统类 Q:MindSpore只能在华为自己的NPU上跑么? A: MindSpore同时支持华为自己的Ascend NPU、GPU与CPU,是支持异构算力的。 Q:MindSpore在Ascend 310上是否可以转AIR模型? A:Ascend 310不能导出AIR...
  • 什么是MindSpore MindSpore是一个新的开源深度学习培训/推断框架,可用于移动,边缘和云场景。 MindSpore旨在为数据科学家和算法工程师提供友好的设计和高效的执行,对Ascend AI处理器的本机支持以及软件硬件共同...
  • 从官网上看上面没有说支持win10 。 但是实际上已经支持win10了,只是没有官网更新。安装方法。 win10官方网站。... Windows系统安装MindSpore 本文档介绍如何在CPU环境...
  • Mindspore my r0.7

    2020-12-07 01:09:31
    <p><strong>What type of PR is this?</strong></p> <p>Uncomment only one <code>/kind <></code> line, hit enter to put that in a new line, and remove leading ...mindspore-ai/mindspore</p></div>
  • MindSpore运算子 实验注意事项:该项目仍处于实验阶段,仅作为在Kubernetes上运行MindSpore的概念证明。 ms-operator的当前版本基于和的早期版本。 目前,MindSpore支持在单个节点上运行带有MNIST数据集的LeNet,而...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 501
精华内容 200
关键字:

mindspore