精华内容
下载资源
问答
  • movidius2_VPU_ProductBrief

    2019-02-26 14:34:51
    movidius VPU的brief datasheet 包含结构框图 包含featurelist
  • Movidius NCS和RPI3在resin.io上运行张量流模型的基本示例 此示例演示如何在来自Raspberry Pi摄像机的视频数据流上运行部署和运行简单的预训练张量流模型(在本例中为Inception 模型),以实现实时对象识别。 它利用...
  • Intel® Movidius™ Neural Compute SDK - Intel® Movidius™ Neural Compute Stick - 网址信息 Intel® Movidius™ Neural Compute SDK https://movidius.github.io/ncsdk/index.html GitHub ...

    Intel® Movidius™ Neural Compute SDK - Intel® Movidius™ Neural Compute Stick - 网址信息

    Intel® Movidius™ Neural Compute SDK

    https://movidius.github.io/ncsdk/index.html

    GitHub

    https://github.com/movidius/ncsdk/

    Blog

    https://movidius.github.io/blog/

    User Forum

    https://ncsforum.movidius.com/

    NC App Zoo

    https://github.com/movidius/ncappzoo/

    展开全文
  • Movidius Compute Stick

    千次阅读 2018-06-13 13:17:36
    1.链接https://github.com/movidius/ncsdk2.SDK安装git clone -b ncsdk2 https://github.com/movidius/ncsdk.gitmake install验证是否安装成功,运行hello world应用 cd examples/apps/hello_ncs_cpp/make hello_...

    1.链接

    https://github.com/movidius/ncsdk

    http://www.eeboard.com/evaluation/movisiudncsupdate/4/

    2.SDK安装

    git clone -b ncsdk2 https://github.com/movidius/ncsdk.git
    make install

    验证是否安装成功,运行hello world应用 

    cd examples/apps/hello_ncs_cpp/

    make hello_ncs_cpp

    make run

    返回如下信息

    Hello NCS! Device opened normally.
    Goodbye NCS! Device closed normally.
    NCS device working.

    3.APP

    cd ncsdk
    git clone -b ncsdk2 https://github.com/movidius/ncappzoo.git
    
    cd ncappzoo
    
    make run

    make run过程中可能会有一些应用下载失败,可以直接cd到具体的应用目录中make run

    比如鸟的识别:

    cd ncappzoo/apps/birds

    make run

    birds目录中有一个images目录,里面有下载的鸟的图片,也可以自己添加图片进去

    运行python3 ./birds.py识别鸟

    4.SDK

    4.1 通用功能

    1.用SDK提供的工具在开发电脑上分析、调整和编译一个DNN模型

    2.在开发电脑上的用户原型应用,通过调用NCAPI接口访问神经棒,获得硬件加速推理能力

    注:训练阶段不能用SDK

    4.2 工具

    4.2.1 mvNCCompile

    Caffe/TensorFlow的网络以及关联权重转换成Movidius的内部格式。
    Caffe:
    mvNCCompile deploy.prototxt -w bvlc_googlenet.caffemodel -s 12 -in input -on prob -is 224 224 -o GoogLeNet.graph

    TensorFlow:

    mvNCCompile inception-v1.meta -s 12 -in=input -on=InceptionV1/Logits/Predictions/Reshape_1 -is 224 224 -o InceptionV1.graph

    4.2.2 mvNCProfile

    提供层到层的参数数据,评价在神经棒上的Caffe/TensorFlow的网络性能

    4.2.3 mvNCCheck

    比较运行在神经棒上的网络和编译验证的推理结果

    4.3 API

    提供软件接口连接神经棒,加载编译后的网络文件,管理输入、输出,执行推理

    5.神经棒工作步骤

    • 使用预先训练好的TensorFlow/Caffe模型或在Ubuntu/Debian上使用Tensorflow/Caffe 训练网络。
    • 使用NCS SDK工具链生成graph文件
    • 将graph文件和NCS部署到运行Ubuntu的单板计算机上,我用Raspberry Pi 3 B运行Raspbian(基于Debian)
    • 使用Python,通过NCS API将graph文件发送到NCS请求图像预测,处理预测结果并根据结果进行(任意)操作


    展开全文
  • movidius-月球定位-源码

    2021-02-16 21:41:36
    Movidius月球本地化 背景 这是为英特尔开发的NASA月球本地化高级设计项目的存储库。 它的目的是在NASA边境发展实验室的研究基础上,建立一种的方法。 该项目旨在利用Intel Neural Compute Stick 2 USB设备运行经过...
  • movidius 开发文档

    2019-04-18 15:05:47
    1.安装virtualbox 2.安装VirtualBox Oracle VM VirtualBox Extension Pack 在... 3.设置-usb设备 启动usb控制器 添加usb设备筛选器(供应商id参考movidius官方文档) 4.1、首先需要一个USB用户组,可以用v...

    1.安装virtualbox
    2.安装VirtualBox Oracle VM VirtualBox Extension Pack 在http://www.virtualbox.org/wiki/Downloads找到对应virtualbox的版本
    3.设置-usb设备 启动usb控制器 添加usb设备筛选器(供应商id参考movidius官方文档)
    4.1、首先需要一个USB用户组,可以用vboxusers这个在安装VirtualBox的时候产生的用户组,把你使用的这个用户加到vboxusers组中,确保该用户是否有权限去读写usbfs这个文件系统,下面贴命令
    1、添加usbfs用户组(装完成后会有vboxusers和vboxsf 两个用户组)
    sudo groupadd usbfs
    2、将你的Linux常用用户添加到vboxusers、usbfs这个两个组中
    sudo addusers jerry vboxusers
    sudo adduser jerry usbfs
    重启,就可以看到usb设备和movidius神经加速板

    github上下载https://github.com/movidius/ncsdk
    sudo make install即可完成安装
    make example 运行demo

    展开全文
  • 使用英特尔Movidius神经计算棒在树莓派上进行NCS的Yolo实现 英特尔Movidius神经计算棒(NCS)设置 为Movidius棍子安装NCSDK,使其可在Raspberry Pi上使用。 如果在以下位置失败: 如果NCSDK安装失败,则无法从git...
  • 英特尔宣布收购视觉处理芯片厂商Movidius.pdf
  • Intel Movidius Neural Compute Stick 跑tensorflow训练的mnist模型的例子,博客链接: https://blog.csdn.net/rookie_wei/article/details/98873920
  • git clone https://github.com/movidius/ncappzoo.git 在任何app / network文件夹中运行此命令,以检查该特定样本对系统软件的依赖性: make install_reqs 如果脚本成功返回,就可以运行应用程序或网络示例了! ...
  • NCSDK(Movidius SDK) 与 OpenVINO 文章目录NCSDK(Movidius SDK) 与 OpenVINOPython - NCAPI v2Python - OpenVINO™ ToolkitC++ - NCAPI v2C++ - OpenVINO™ Toolkit NCS NCS2 说明 出品公司 Movidius ...

    NCSDK(Movidius SDK) 与 OpenVINO

    NCS NCS2 说明
    出品公司 Movidius Intel 以色列公司 Movidius 在 2016 年被 Intel 收购
    架构 Mygrid 2 VPU Mygrid X VPU Mygrid X VPU 全名为 Intel®Movidius™Myriad™X VPU
    计算核心数 12 核 16 核
    深度神经网络推理 专用硬件加速
    NCSDK(Movidius SDK) OpenVINO 说明
    公司 原 Movidius 公司开发,后被 Intel 收购 Intel 公司
    对 NCS 支持 NCSDK v1/v2 仅支持一代 NCS 支持 NCS 和 NCS2 NCSDK v1 与 NCSDK v2 互不兼容。
    NCSDK v1 基本已被弃用。
    OpenVINO 实际包含 Movidius SDK
    功能 只做编码、解码的加速 集成 OpenCV、OpenVX 的支持
    支持框架 Caffe、TensorFlow Caffe、TensorFlow、MXNet、Kaldi、ONNX
    API 接口 C、Python C++、Python
    多 NCS 设备 提供 NCS 列表,用户决定在特定设备上推理 根据设备负载向 NCS 设备分发推理任务,无需管理 NCS 设备
    限制 目前支持的 ARM 设备:树莓派(Raspberry)
    支持设备 NCS Intel CPU、NCS、NCS2、Movidius VPU、Intel GPU、FPGA

    Python - NCAPI v2

    """NCAPI v2"""
    
    ### initialization
    from mvnc import mvncapi
    
    ########################  Device Initialization  #######################
    device_list = mvncapi.enumerate_devices()
    device = mvncapi.Device(device_list[0])
    device.open()
    ########################################################################
    
    #######################  Load  Neural Network   ########################
    # Initialize a graph from file at some GRAPH_FILEPATH
    GRAPH_FILEPATH = './graph'
    with open(GRAPH_FILEPATH, mode='rb') as f: 
    graph_buffer = f.read()
    graph = mvncapi.Graph('graph1')
    
    # CONVENIENCE FUNCTION: 
    # Allocate the graph to the device and create input/output Fifos with default options in one call
    input_fifo, output_fifo = graph.allocate_with_fifos(device, graph_buffer
    ########################################################################
    
    ########################  Obtain Input Tensor  #########################
    # Read and pre-process input (data type must match input Fifo data type)
    input_tensor = ...
    ########################################################################
    
    #########################  Start  Inference  #########################
    # CONVENIENCE FUNCTION: 
    # Write the image to the input queue and queue the inference in one call
    graph.queue_inference_with_fifo_elem(input_fifo, output_fifo, input_tensor, None)
    ########################################################################
    
    #########################  Get Inference result  #######################
    # Get the results from the output queue
    output, user_obj = output_fifo.read_elem()    
    ########################################################################
    
    # Do something with the results...
    
    #############################  Clean up  ###############################
    input_fifo.destroy()
    output_fifo.destroy()
    graph.destroy()
    device.close()
    device.destroy()
    ########################################################################
    

    Python - OpenVINO™ Toolkit

    def main():
    #######################  Device  Initialization  ########################
    #  Plugin initialization for specified device and load extensions library if specified
    plugin = IEPlugin(device="MYRIAD") 
    #########################################################################
    
    #########################  Load Neural Network  #########################
    #  Read in Graph file (IR)
    net = IENetwork.from_ir(model="graph1.xml", weights="graph1.bin") 
    
    input_blob = next(iter(net.inputs))
    out_blob = next(iter(net.outputs))
    #  Load network to the plugin
    exec_net = plugin.load(network=net)
    del net
    ########################################################################
    
    #########################  Obtain Input Tensor  ########################
    #  Obtain and preprocess input tensor (image)
    #  Read and pre-process input image  maybe we don't need to show these details
    image = cv2.imread("input_image.jpg")
    
    #  Preprocessing is neural network dependent maybe we don't show this
    n, c, h, w = net.inputs[input_blob]
    image = cv2.resize(image, (w, h))
    image = image.transpose((2, 0, 1))  # Change data layout from HWC to CHW
    image = image.reshape((n, c, h, w))
    ########################################################################
    
    ##########################  Start  Inference  ##########################
    #  Start synchronous inference and get inference result
    req_handle = exec_net.start_async(inputs={input_blob: image})
    ########################################################################
    
    ######################## Get Inference Result  #########################
    status = req_handle.wait()
    res = req_handle.outputs[out_blob
    
    
    # Do something with the results... (like print top 5)
    top_ind = np.argsort(res[out_blob], axis=1)[0, -5:][::-1]
    for i in top_ind:
        print("%f #%d" % (res[out_blob][0, i], i))
    
    ###############################  Clean  Up  ############################
    del exec_net
    del plugin
    ########################################################################
    
    
    if __name__ == '__main__':
        sys.exit(main() or 0)
    

    C++ - NCAPI v2

    // initialization
    #include <mvnc.h>
    
    /// Device Initialization ///
    struct ncDeviceHandle_t* deviceHandle;
    ncDeviceCreate(deviceIndex, &deviceHandle);
    ncDeviceOpen(deviceHandle);
    /
    
    // Load Neural Network //
    // Create the graph handle
    struct ncGraphHandle_t* graphHandle = NULL;
    ncGraphCreate("graph", &graphHandle);
    
    // Initialize and read in a graph from some GRAPHFILE_PATH
    fp = fopen(GRAPHFILE_PATH, "rb");
    if(fp == NULL)
        return 0;
    fseek(fp, 0, SEEK_END);
    *length = ftell(fp);
    rewind(fp);
    if(!(graphBuffer = (char*) malloc(*length))) {
        fclose(fp);
    }
    if(fread(graphBuffer, 1, *length, fp) != *length) {
        fclose(fp);
        free(graphBuffer);
    }
    fclose(fp);
    
    struct ncFifoHandle_t* inputFifo = NULL;
    struct ncFifoHandle_t* outputFifo = NULL;
    
    // CONVENIENCE FUNCTION:
    // Allocate and create input/output fifos in one call
    ncGraphAllocateWithFifos(deviceHandle, graphHandle, graphBuffer, graphLength, &inputFifo, &outputFifo);
    /
    
    /// Obtain Input  Tensor  ///
    // Read and preprocess input from image file or camera etc.
    inputTensor = ...
    /
    
      Start  Inference  / 
    // CONVENIENCE FUNCTION:        
    // Write the image to the input queue and queue the inference in one call
    ncGraphQueueInferenceWithFifoElem(graphHandle, &inputFifo, &outputFifo, inputTensor, &inputTensorLength, 0);
    /
    
    /// Get Inference Result 
    // Get the results from the output queue
    ncFifoReadElem(outputFifo, outputData, &outputdataLength, NULL);
    /
    
    // Do something with the results...
    
    / Clean  up /
    ncFifoDestroy(&inputFifo);
    ncFifoDestroy(&outputFifo);
    ncGraphDestroy(&graphHandle);
    ncDeviceClose(deviceHandle);
    ncDeviceDestroy(&deviceHandle);
    /
    

    C++ - OpenVINO™ Toolkit

    /  Device  Initialization  //
    // Plugin initialization
    InferenceEngine::PluginDispatcher dispatcher({"../../../lib/intel64", ""});
    InferencePlugin plugin(dispatcher.getSuitablePlugin(TargetDevice::eMYRIAD));
    /
    
    //  Load  Neural  Network  //
    
    //  Read in Graph file (IR)
    CNNNetReader network_reader;
    network_reader.ReadNetwork(input_model);
    network_reader.ReadWeights(input_model.substr(0, input_model.size() - 4) + ".bin");
    network_reader.getNetwork().setBatchSize(1);
    CNNNetwork network = network_reader.getNetwork();
    
    // Prepare input blobs
    auto input_info = network.getInputsInfo().begin()->second;
    auto input_name = network.getInputsInfo().begin()->first;
    input_info->setPrecision(Precision::U8);
    
    // Prepare output blobs
    auto output_info = network.getOutputsInfo().begin()->second;
    auto output_name = network.getOutputsInfo().begin()->first;
    output_info->setPrecision(Precision::FP32);
    
    // Load network to the plugin
    auto executable_network = plugin.LoadNetwork(network, {});
    auto infer_request = executable_network.CreateInferRequest();
    
    auto input = infer_request.GetBlob(input_name);
    auto input_data = input->buffer().as<PrecisionTrait<Precision::U8>::value_type*>();				
    //	
    
    ///  Obtain input tensor  
    // Obtain and preprocess input tensor (image)
    cv::Mat image = cv::imread(input_image_path);
    cv::resize(image, image, cv::Size(input_info->getDims()[0], input_info->getDims()[1]));
    
    size_t channels_number = input->dims()[2];
    size_t image_size = input->dims()[1] * input->dims()[0];
    
    for (size_t pid = 0; pid < image_size; ++pid) {
        for (size_t ch = 0; ch < channels_number; ++ch) {
    	     input_data[ch * image_size + pid] = image.at<cv::Vec3b>(pid)[ch];
        }
    }
    //
    
    /  Start  Inference  /
    //  Start synchronous inference and get inference result
    infer_request.Infer();    
    //
    
    //  Get  Inference Result  ///
    auto output = infer_request.GetBlob(output_name);
    auto output_data = output->buffer().as<PrecisionTrait<Precision::FP32>::value_type*>();
    //
    
    // Do something with the results... (like print top 5)
    std::cout << std::endl << "Top " << results_to_display << " results:" << std::endl << std::endl;
    for (size_t id = 0; id < results_to_display; ++id) {
        std::cout.precision(7);
        auto result = output_data[results[id]];
        std::cout << std::left << std::fixed << result << " label #" << results[id] << std::endl;
    }
    
    // clean up  //
    // clean up done in destructors, nothing explicit to do.
    ///
    
    展开全文
  • 几个月前,搞了一个Movidius(已停产,目前第二代叫NCS 2),由于工作原因,一直没有时间鼓捣,趁着国庆放假,在家好好研究一番。 主要参考的是pyimagesearch 4月8日的文章,现在把其中遇到的问题记录一下,希望能帮...
  • 树脂+ Movidius + Raspberry Pi 3 该项目为生成基本图像。 该映像包括 ,Tensorflow v1.7.0和OpenCV 3.4.1。 该映像不会构建Caffe或NCS Toolkit,因此在该映像中运行/编译图形将失败,您应该按照NCS入门中的描述,...
  • 一起打包在经济实惠的 U 盘板型,这是 Intel:registered: NCS 2 搭载我们最新的 VPU (愿景处理单元) – Intel:registered: Movidius:trade_mark: 无数种 X,其中包括片上神经网络加速器被称为神经计算引擎。...
  • 小小甜菜Movidius爬坑记

    千次阅读 2018-11-13 15:22:04
    小小甜菜Movidius爬坑记 我是在神经计算棒+树莓派3B上看到实际效果后决定使用本方案的,实际项目中使用树莓派CM3作为核心板卡,使用Movidius 2或Movidius X(具体版本看项目需求决定)作为加速芯片,扩展板自己制作...
  • 一、安装指令 1、ncs1.x安装 sudo apt-get update sudo apt-get upgrade sudo mkdir ncs1.x ...sudo git clone https://github.com/movidius/ncsdk.git ...sudo git clone https://github.com/movidius/ncappzoo....
  • Intel Movidius Necural Compute(NCS)为因特尔开发的 轻巧,无风扇,深度学习设备,主要用于边缘计算,通过usb 3.0接口与主机或者开发板相链接, 支持window和ubuntu开发环境。与Intel® Movidius™ Myriad™ Vision...
  • Intel® Movidius™ Neural Compute SDK - TinyYolo https://github.com/movidius/ncappzoo/tree/master/caffe/TinyYolo ncappzoo/caffe/TinyYolo/ Introduction The TinyYolo network can be used for object ...
  • 1.Ubuntu虚拟机上安装NC SDK  cd /home/shine/... git clone https://github.com/movidius/ncsdk.git  make install  通过运行测试例程判断是否正确安装  make examples 2.激活USB设备  在...
  • Movidius™ Neural Compute Stick - NCS Quick Start https://movidius.github.io/ncsdk/index.html This is a quick start guide. Visit the download section for deep dive documentation.1. You will need the ...
  • Intel® Movidius™ Neural Compute SDK - ncsdk-2.05.00.02 movidius/ncsdk Software Development Kit for the Neural Compute Stick https://github.com/movidius/ncsdk Releases ...
  • HC26.12.620-Myriad2-Eye-Moloney-Movidius-provided,Myriad2 overveiw,include advantage
  • ros_intel_movidius_ncs 配置安装笔记

    千次阅读 2018-01-22 14:51:46
    ros_intel_movidius_ncs 配置安装笔记 系统环境:Ubuntu 16.04 ROS版本:Kinetic 硬件需求:Movidius Neural Compute Stick (Intel) 安装NCSDK 1.10 https://github.com/movidius/ncsdk cd ~/ mkdir ai_ws/ ...
  • cd yolo-darkflow-movidius/ pip install --upgrade cython git clone https://github.com/thtrieu/darkflow darkflow_all cd darkflow_all python3 setup.py build_ext --inplace pip install -e . cd .. ln -s ...
  • Intel® Movidius™ Neural Compute SDK - Basic Installation and Configuration This page provides guidance for installing the Intel® Movidius™ Neural Compute SDK (Intel® Movidius™ NCSDK). ...
  • YOLO for Intel / Movidius神经计算棒(NCS) 新闻 相机应用正在运行。 YOLOv1 Tiny正在运行。 Protobuf模型文件 ./prototxt/ 将预训练的Caffe模型下载到./weights/ YOLO_tiny: ://drive.google....
  • movidius ncappzoo中video-object例程的五个视频,如果直接下载会下载的很慢,吧这五个视频文件放到video-objects文件夹下就行,就不会再重新下载
  • 神经元计算棒2 mvNCCompile 模型转换工具摘要...mvNCCompile是一个命令行工具,可将Caffe或TensorFlow模型的网络和权重文件编译为Movidius Graph文件格式 参考链接: https://movidius.github.io/ncsdk/tools/co...
  • 本文讨论在Ubuntu16.04的系统中使用Movidius神经计算棒,进行vgg16算法预测。 神经计算SDK官方网站https://movidius.github.io/ncsdk/install.html 1.首先在系统中安装python3.5,这里不再赘述。 2.然后进行神经...
  • 其中一些需要Movidius神经计算棒的支持才能提高性能。 OpenVINO工具包主要是开发工具,可帮助优化硬件和模型以使其与Raspi配合使用 这项工作的主要目的是帮助各个层次的开发人员获得与Raspberry Pi一起用于Computer...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,590
精华内容 636
关键字:

Movidius