精华内容
下载资源
问答
  • openvino模型下载

    2021-10-29 21:09:05
    cd /d C:\IntelSWTools\openvino_2020.4.287\deployment_tools\open_model_zoo\tools\downloader python downloader.py --name vehicle-detection-adas-0002(模型名称) 如图所示下载完成,根据对应路径找到下载的...

    cd /d C:\IntelSWTools\openvino_2020.4.287\deployment_tools\open_model_zoo\tools\downloader

    python downloader.py --name vehicle-detection-adas-0002(模型名称)
    在这里插入图片描述
    如图所示下载完成,根据对应路径找到下载的文件
    在这里插入图片描述

    在这里插入图片描述

    展开全文
  • 在VS2017中配置OpenVINO环境,并运行Tensorlfow训练的MobileNet,包括Tensorflow模型转为OpenVINO模型,VS2017运行OpenVINO模型等,配置OpenCV等,详情请阅读我的博客【OpenVINO运行Tensorflow模型】
  • OpenVINO模型转换

    2021-03-18 11:03:16
    conda create -n openvino python=3.7 activate openvino cd C:\Program Files (x86)\IntelSWTools\openvino_2019.3.379\deployment_tools\model_optimizer pip install -r requirements_tf.txt MobilenetV1(已冻结)...

    conda create -n openvino python=3.7
    activate openvino
    cd C:\Program Files (x86)\IntelSWTools\openvino_2019.3.379\deployment_tools\model_optimizer
    pip install -r requirements_tf.txt

    MobilenetV1(已冻结):
    –input_model :指定输入模型路径
    –out_dir :保存目录
    –input_shape :指定模型的输入Tensor的shape,如果不指定,则会自动从pb中读取
    –output :指定输出节点名称,如果不指定,会自动从图中提取。注意,这里由于OpenVINO不支持squeeze层,所以我们主动指定squeeze的上一层即MobilenetV1/Logits/Conv2d_1c_1x1/Conv2D,获取每一层名称的方法可以先不指定output,会自动导出xml,从xml中即可看到每一层名称
    –scale_values :指定数据预处理的scale系数
    –mean_values :指定数据预处理的mean系数
    –data_type :指定计算类型,可以选择全浮点和半浮点,可选参数为:{FP16,FP32,half,float}

    python “C:\Program Files (x86)\IntelSWTools\openvino_2019.3.379\deployment_tools\model_optimizer\mo_tf.py” --input_model mobilenet_v1_1.0_224_frozen.pb --input_shape [1,224,224,3] --output MobilenetV1/Logits/Conv2d_1c_1x1/Conv2D --data_type FP16 --output_dir ir\FP16\nosqueeze\ --mean_values [127.5,127.5,127.5] --scale_values [127.5,127.5,127.5]

    测试chicky_512.png图片,根据synset_words_chi.txt返回识别结果为n02086240,西施犬 0.843255
    synset_words为caffe的数据集标签

    VGG16(非冻结):

    1. For “*.ckpt”(very old format) file:
    • if inference graph is in binary format
      python3 mo_tf.py --input_model “path/to/inference_graph.pb” --input_checkpoint “path/to/*.ckpt”
    • if inference graph is in text format
      python3 mo_tf.py --input_model “path/to/inference_graph.pbtxt” --input_model_is_text --input_checkpoint “path/to/*.ckpt”
    1. For “.meta" file:
      python3 mo_tf.py --input_meta_graph "path/to/
      .meta”
      通常包含[.meta .index .data-00000-of-00001]文件

    生成推理图
    python “E:\OpenSource\Python\TensorFlow\models-master\research\slim\export_inference_graph.py” --model_name vgg_16 --output_file “E:\Deposit\TensorFlowModel\vgg_16_2016_08_28\vgg_16_inference_graph.pb”

    得到输入输出信息
    python “C:\Program Files (x86)\IntelSWTools\openvino_2019.3.379\deployment_tools\model_optimizer\mo\utils\summarize_graph.py” --input_model vgg_16_inference_graph.pb

    python “C:\Program Files (x86)\IntelSWTools\openvino_2019.3.379\deployment_tools\model_optimizer\mo_tf.py” --input_model vgg_16_inference_graph.pb --input_checkpoint vgg_16.ckpt --data_type FP16 --output_dir ir\FP16\ --mean_values [103.94,116.78,123.68] --scale 1 -b 1

    冻结代码:
    import tensorflow as tf
    from tensorflow.python.framework import graph_io
    frozen = tf.graph_util.convert_variables_to_constants(sess, sess.graph_def, [“name_of_the_output_node”])
    graph_io.write_graph(frozen, ‘./’, ‘inference_graph.pb’, as_text=False)

    展开全文
  • openvino模型转换命令

    2020-11-25 16:24:07
    openvino模型转换方式如下: caffe模型转换命令 不带均值 转换命令如下: python mo.py --input_model ./191227_resnet_ssd_300_300_iter_15000_china.caffemodel --input_proto ./pl_det300_test_1903.prototxt -...

    进入deployment_tools/model_optimizer目录下,查看mo.py文件。

    openvino模型转换方式如下:

    caffe模型转换命令

    • 不带均值

    转换命令如下:

    python mo.py  --input_model ./191227_resnet_ssd_300_300_iter_15000_china.caffemodel --input_proto ./pl_det300_test_1903.prototxt --output_dir ./
    
    • 带均值命令

    首先要保存.binaryproto格式文件,脚本如下:

    import os
    import sys
    
    caffe_root = '/home/tt/work/sdk/caffe-ssd/python'
    os.chdir(caffe_root)
    sys.path.insert(0, caffe_root)
    import caffe
    import numpy as np
    
    
    def save_binaryproto_file(mean_binary_file, proto_size, mean_values):
        # 存储为binaryproto
        # blob = caffe.BlobProto()
        blob = caffe.proto.caffe_pb2.BlobProto()
        blob.channels = 3
        blob.height = proto_size[0]
        blob.width = proto_size[1]
        blob.num = 1
        blob.data.extend(mean_values.astype(float).flat)
        binaryproto_file = open(mean_binary_file, 'wb')
        binaryproto_file.write(blob.SerializeToString())
        binaryproto_file.close()
    
    
    # Press the green button in the gutter to run the script.
    if __name__ == '__main__':
        proto_size = (160, 240)
        mean_values = np.zeros((proto_size[0], proto_size[1], 3), dtype=np.float)
        mean_values[:, :, 0] = 104.0
        mean_values[:, :, 1] = 117.0
        mean_values[:, :, 2] = 123.0
        mean_binary_file = '/home/tt/work/code/openvino-code/save_binaryproto/mean_' + str(proto_size[0]) + '_' + str(
            proto_size[1]) + '.binaryproto'
        save_binaryproto_file(mean_binary_file, proto_size, mean_values)
    
        print('hello world!')
    
    

    转换命令如下:

    python3 mo.py  --input_model /home/tt/work/code/common_openvino_sdk/model/china/0vehicle/191227_resnet_ssd_300_300_iter_34000_vehicle.caffemodel --input_proto /home/tt/work/code/common_openvino_sdk/model/china/0vehicle/pl_det300_test_true190724.prototxt --mean_file /home/tt/work/code/common_openvino_sdk/model/china/mean_300_300.binaryproto --model_name resnet_ssd_vehicle_300_300 --output_dir /home/tt/work/code/common_openvino_sdk/model/china/0vehicle
    

    转换方式2,待和上述方式进行对比分析

    python3 mo.py  --input_model /home/tt/work/code/common_openvino_sdk/model/china/0vehicle/191227_resnet_ssd_300_300_iter_34000_vehicle.caffemodel --input_proto /home/tt/work/code/common_openvino_sdk/model/china/0vehicle/pl_det300_test_true190724.prototxt --mean_values [104,117,123] --model_name resnet_ssd_vehicle_300_300 --output_dir /home/tt/work/code/common_openvino_sdk/model/china/0vehicle
    

    onnx模型转换命令

    python mo_onnx.py -m ./mb_tiny_sim.onnx -o ./mask --input_shape [1,120,120,3]
    
    
    展开全文
  • OpenVINO模型库中有多个人脸检测模型,这些模型分别支持不同场景与不同分辨率的人脸检测,同时检测精度与速度也不同。下面以OpenVINO2020 R04版本为例来逐一解释模型库中的人脸检测,列表如下: 从列表中可以看出...

    人脸检测模型

    OpenVINO的模型库中有多个人脸检测模型,这些模型分别支持不同场景与不同分辨率的人脸检测,同时检测精度与速度也不同。下面以OpenVINO2020 R04版本为例来逐一解释模型库中的人脸检测,列表如下:
    在这里插入图片描述从列表中可以看出骨干特征网络主要是MobileNetv2与SqueezeNet两种支持实时特征网络,ResNet152是高精度的特征网络,检测头分别支持SSD、FCOS、ATSS。
    MobileNetv2版本的模型结构
    深度可分离卷积
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    ResNet网络
    残差网络模型在2015年提出,OpenCV从3.3版本开始支持,相关的论文如下:

    https://arxiv.org/pdf/1512.03385.pdf
    

    在这里插入图片描述
    SqueezeNet网络
    该模型与MobileNet网络都是支持移动端/端侧可部署的模型,2016提出,相关论文如下:

    https://arxiv.org/pdf/1602.07360.pdf
    

    模型结构
    在这里插入图片描述
    检测模型
    根据不同的检测头,组合生成不同的对象检测模型,这里三种常见的检测模型:
    SSD检测
    SSD论文中给出的是基于VGG-16作为backbone网络的,替换VGG为MobileNetV2,然后从第12个权重层开始提取特征到第14或者15个权重层,针对anchor预测与类别预测完成回归与分类损失计算,实现对象检测模型训练。
    在这里插入图片描述
    FCOS检测
    跟YOLOv1相似是一个anchor-free的网络模型
    在这里插入图片描述
    多了一个中心输出来压制低质量的bounding box输出。
    ATSS
    ATSS的全称是自适应训练样本选择,
    在这里插入图片描述
    作者首先对比了RetinaNet与FCOS两种对象检测方法,发现对象检测在回归阶段的本质问题是如何选择正负样本,解决样本不平衡性问题,从而提出了一种新的正负样本选择定义方法-自适应训练样本选择(ATSS)。流程如下:
    在这里插入图片描述
    该方法可以获得更好的对象检测精度与mAP,适用RetinaNet与FCOS等对象检测网络。实际实验数据对比:
    在这里插入图片描述
    实验对比:
    上面的OpenVINO的人脸检测模型列表中,MobileNetv2 + SSD/FCOS适用于速度优先,不同分辨率的场景,ResNet152 + ATSS是OpenVINO模型库中的精度最高的人脸检测预训练模型。下面我们就通过代码分别测试FCOS与ATSS两种检测模型的检测效果比较,针对同一张测试人脸图像,图示如下:
    在这里插入图片描述
    统一调整阈值为0.25,推理时间与检测人脸总数的对比图如下:
    在这里插入图片描述
    最终分别得到测试图像如下:
    在这里插入图片描述
    在这里插入图片描述
    欢迎关注我的微信公众号【OpenCV学堂】,获取更多干货!

    展开全文
  • 2020-12-20 openvino.rar

    2020-12-26 10:02:42
    参考博客: 【DEBUG】 安装openvino-python后import cv2,ImportError: numpy.core.multiarray failed to import https://blog.csdn.net/jn10010537/article/details/111460517#comments_14350659
  • 当在OpenVINO上部署YOLOv3 / v4时,该模型的完整版本的FPS较低,而微型模型的准确性较低且稳定性较差。 完整版的模型结构通常被设计为能够在更复杂的场景中检测80个或更多的类。 在我们的实际使用中,通常只有几个类...
  • (以mxnet框架在openvino上的转换为例) 1、安装相关openvino toolkit: (以镜像的方式为例) sudo docker search openvino docker pull cortexica/openvino:latest docker run -i -t cortexica/openvino:latest /...
  • 人员检测 使用openvino模型进行准确的人员检测 指示 关联
  • Openvino 模型转换命令mo.py

    千次阅读 2019-12-05 17:09:51
    openvino中用于将训练的模型转换成IR文件,可以使用mo.py脚本 该脚本位于: /opt/intel/openvino/deployment_tools/model_optimizer/mo.py 查看其帮助信息: 里面命令行参数较多,其中比较重要的参数为: -...
  • openvino官网写的比较详细,比较建议看官网学习 # 成功运行的环境# python3.5 tensorflow1.12 1.将yolov3模型从darknet转化成tensorflow模型 git clone https://github.com/mystic123/tensorflow-yolo-v3.git...
  • OpenViNO模型下载

    2021-11-06 19:34:11
    官方文档:Get Started with OpenVINO™ Toolkit on Windows* - OpenVINO™ Toolkithttps://docs.openvino.ai/cn/latest/openvino_docs_get_started_get_started_windows.html#download-models 进入安装目录: ...
  • 说明文档:https://github.com/openvinotoolkit/open_model_zoo/blob/master/tools/downloader/README.md 文件位置及目录详情: 该目录包含脚本,这些脚本根据模型目录中的配置文件自动执行某些与模型相关的任务。 ...
  • yoloV5的openvino模型转换以及部署

    千次阅读 2021-03-22 16:20:12
    openvino安装 环境变量配置 参考文章 python环境依赖 conda activate openvino # 进入ubuntu 的虚拟环境 git clone https://github.com/ultralytics/yolov5.git cd yolov5pip3 install -r requirements.txt onnx# 降...
  • 模型加速之openvino

    千次阅读 热门讨论 2019-12-27 15:12:31
    1.什么是OpenVINO工具包 OpenVINO™工具包可快速部​​署模拟人类视觉的应用程序和解决方案。该工具包基于卷积神经网络(CNN),可扩展英特尔®硬件的计算机视觉(CV)工作负载,从而最大限度地提高性能。OpenVINO...
  • IR模型,这个需要openvino模型转换,获得model.bin文件和model.xml文件,可以利用openvino 的GitHub中model-optimizer文件夹内提供的模型转换工具,如mo_tf.py、mo_onnx.py等,可以参考我的文章【OpenCV+OPENVINO...
  • 零基础教你使用OpenVINO工具套件部署YOLOv3模型
  • openvino_insightface_fp32人脸识别模型,有resnet50的IR文件,FP32精度,2020.4版本转化
  • DL Workbench是可视化的OpenVINO模型性能评估工具,用户可以在web界面下选择已有的英特尔硬件设备进行模型评估。这个工具包含了下载深度学习模型、定制和生成推理所需数据集、优化模型、校准模型、调整和比较模型的...
  • export_params=True, input_names=input_names,output_names=output_names,example_outputs=out) pytorch转换模型: python3 mo_onnx.py --input_model --output_dir --input_shape [1,3,640,480]
  • openvino 使用 yolov5模型

    千次阅读 2021-11-11 17:04:05
    最近在折腾了一个yolov5的模型,然后想使用在openvino上使用。 Unknown model format! Cannot find reader for model format: onnx and read the model: last.onnx. Please check that reader library exists in ...
  • OpenVINO的引入:模型的落地需求,特别是边缘设备上的落地 C++实践的环境搭建:配置头文件路径,库路径,库依赖,以及相关应用程序的环境变量配置 ResNet18图像分类模型:设置模型输入、解析二维输出[1,1000]; 车辆与...
  • BlazePose模型测试程序,用于Intel OpenVINO工具包的Intel发行版 在制品 BlazePose OpenVINO IR模型可以从获得。 示例(上身模型) 示例(全身模型) 配置/选项 当前程序不支持命令行选项。 您可以修改源代码以更改...
  • Intel神经棒使用的人脸识别模型,基于114759的模型使用OpenVINO进行的转换。可以运行在NCS、NCS2等平台,若是使用CPU建议下载FP32版
  •   可以参考我这篇 《【模型推理】ubuntu 配置和使用 openvino》进行 openvino 的环境配置。 2、典型模型下载 cdopen_model_zoo/tools/downloader ## 下载典型模型 ./downloader.py--all-j8   完了会生成...
  • 在pycharm中使用openvino包,不能直接使用图标启动,要使用终端启动。如果不知道pycharm的启动文件在哪,可以通过以下指令查找: sudo find / -name pycharm.sh 找到后进入pycharm.sh所在文件夹,执行该启动脚本: ...
  • 使用OpenVINO部署ONNX模型

    千次阅读 2020-07-28 20:43:04
    联合使用OpenVINO和ONNX,便可以解决从不同框架模型到不同硬件之间快速部署的问题。 最近参加“英特尔®OpenVINO™领航者联盟 DFRobot行业AI开发者大赛”活动,主办方提供了拿铁熊猫LattePanda和Intel神经计算棒NCS...
  • openvino 英特尔提供的模型介绍

    千次阅读 2020-04-25 15:13:36
    介绍如下模型: Object Detection Models / 目标检测模型 Object Recognition Models / 目标识别模型 Reidentification Models / 回归模型 Semantic Segmentation Models / 语义分割模型 Instance Segmentation...
  • OpenVINO(1)-模型下载

    2021-07-17 23:02:30
    到文件夹下查询:C:\Program Files (x86)\Intel\openvino_2021.2.185\deployment_tools\open_model_zoo\models\intel2.下载模型 cmd 到C:\Program Files (x86)\Intel\openvino_2021.2.185\deployment_tools\open_...
  • OpenVINO之五:转换ONNX模型

    千次阅读 2019-06-15 11:11:17
    2 OpenVINO支持的ONNX模型 2-1 支持的公共模型 bvlc_alexnet , bvlc_googlenet , bvlc_reference_caffenet , bvlc_reference_rcnn_ilsvrc13 inception_v1, inception_v2 resnet50 squeezenet dense...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,449
精华内容 979
关键字:

openvino模型

友情链接: Lee_s.zip