-
OpenMV-ROI-with-RGB
-
TensorRT安装
2020-12-21 21:46:58TensorRT安装以及相关配置 看到很多tensorrt安装教程有一些问题,所以我安装完后写这篇记录并分享一下. 1.下载tar包 TensorRT官方API提供了四种安装方式,建议下载tar包进行安装。下载地址... -
TensorRT-SSD
2021-04-29 05:23:43TensorRT-SSD-facedet 此代码是实现caffe-ssd的示例。 该示例实现了基于caffe-ssd框架的快速人脸检测器。 该模型可以在gtx1080ti上运行超过250fps! 该代码已由我自己测试过,它可以帮助您快速了解TensorRT API... -
yolov5-onnx-tensorrt:如何使用 TensorRT 运行 yolov5 模型
2021-05-29 15:48:14此 Repos 包含如何使用 TensorRT 运行 yolov5 模型。 Pytorch 实现是 。 将 pytorch 转换为 onnx 和 tensorrt yolov5 模型以在 Jetson AGX Xavier 上运行。 支持推断图像。 支持同时推断多幅图像。 要求 请使用torch... -
tensorrt_demos:TensorRT YOLOv4,YOLOv3,SSD,MTCNN和GoogLeNet
2021-05-11 13:07:50tensorrt_demos 展示如何使用TensorRT优化caffe / tensorflow / darknet模型并在NVIDIA Jetson或x86_64 PC平台上运行推理的示例。 在Jetson Nano上以约4.6 FPS运行优化的“ yolov4-416”物体检测器。 在Jetson ... -
fp16tensorRT:基于API的TensorRT模型上的TensorRT半精度推理例程
2021-05-09 01:10:06这是用C ++ TensorRT API编写的TensorRT模型的工作示例,以半精度模式运行推理。 可以运行全精度和半精度模式的推断。 内容 demo.cpp模型定义和推断 wts_gen_demo.py权重文件从numpy数组的常规字典转换为TensorRT ... -
tensorrt的deb安装包
2021-08-20 01:25:48nv-tensorrt-repo-ubuntu1804-cuda10.2-trt7.0.0.11-ga-20191216_1-1_amd64.deb sudo dpkg -i nv-tensorrt-repo-ubuntu1804-cuda10.2-trt7.0.0.11-ga-20191216_1-1_amd64.deb sudo apt-get update sudo apt-get ... -
ONNX-TensorRT:用于ONNX的TensorRT后端-Python开发
2021-05-25 14:31:33ONNX-TensorRT:用于ONNX的TensorRT后端用于ONNX的TensorRT后端解析ONNX模型以与TensorRT一起执行。 另请参阅TensorRT文档。 受支持的TensorRT版本开发Master分支上的开发适用于具有完整尺寸和动态形状支持的... -
yolov4-triton-tensorrt:该存储库将YOLOv4作为优化的TensorRT引擎部署到Triton Inference Server
2021-03-21 04:26:43使用TensorRT的Triton Inference Server上的YOLOv4该存储库展示了如何将YOLOv4作为优化的引擎部署到 。 Triton Inference Server具有许多现成的优势,可用于模型部署,例如GRPC和HTTP接口,在多个GPU上自动调度,... -
Pytorch2TensorRT:CUDA10.0,CUDNN7.5.0,TensorRT7.0.0.11
2021-05-10 18:24:22Pytorch2TensorRT 将Pytorch模型部署到TensorRT的一个简单用法,技术路线为“pytorch model-->onnx file-->TensorRT engine”。 当前仅针对ONNX和TensorRT支持OP可进行转换,如有不支持的OP需编写插件。 News:... -
TensorRT-RepVGG:TensorRT实现的“ RepVGG
2021-05-24 13:30:51RepVGG 来自“ RepVGG:使VGG风格的ConvNets再次伟大”的RepVGG模型 有关Pytorch的实现,可以参考 怎么跑 生成wts文件。 ...然后将TensorRT-RepVGG/gen_wts.py复制到RepVGG并生成.wts文件,例如 -
object-detection-tensorrt-example:在Python中使用NVIDIA GPU上的TensorRT在网络摄像头feed上运行对象检测
2021-05-22 22:36:21对象检测TensorRT示例: 该python应用程序从实时视频流中获取帧,并在GPU上执行对象检测。 我们将预训练的单发检测(SSD)模型与Inception V2一起使用,应用TensorRT的优化,为我们的GPU生成运行时,然后对视频源... -
mmdetection-to-tensorrt:将mmdetection模型转换为tensorrt,支持fp16,int8,批输入,动态形状等
2021-03-19 06:06:09MMDet到张量该项目旨在将mmdetection模型转换为tensorrt模型end2end。现在专注于对象检测。面膜的支持是实验性的。支持: fp16 int8(实验)批量输入动态输入形状不同模块的组合深度支持欢迎提供任何建议,错误报告... -
基于C++快速使用TensorRT来部署模型项目源码
2022-03-24 23:12:24基于C++快速使用TensorRT来部署模型项目源码 -
【TensorRT】TensorRT的INT8校准原理
2021-01-06 22:54:30INT8校准就是原来用32bit(float32)表示的tensor现在用8bit来表示,并且要求精度不能下降太多。 将FP32转换为 INT8的操作需要针对每一层的输入tensor和网络学习到的参数进行。 但是不同网络结构的不同layer的激活值... -
torch2trt:易于使用的PyTorch到TensorRT转换器
2021-05-11 13:34:13您在TensorRT中使用或希望使用哪些模型? 随时加入的讨论。 torch2trt是一个使用TensorRT Python API的PyTorch到TensorRT转换器。 转换器是 易于使用-使用单个函数调用torch2trt转换模块 易于扩展-用Python编写... -
TensorRT-8.0.1.6.Windows10.x86_64.cuda-10.2.cudnn8.2.zip
2022-06-16 16:02:39TensorRT-8.0.1.6.Windows10.x86_64.cuda-10.2.cudnn8.2.zip使用需要的环境: win10 x64 tensorrt==8.0.1.6 cuda==10.2 cudnn==8.2 -
yolov4_trt_ros:使用TensorRT引擎的YOLOv4对象检测器
2021-05-17 23:50:51带有TensorRT引擎的YOLOv4 该软件包包含yolov4_trt_node,可使用NVIDIA的TensorRT引擎执行推理 该软件包适用于YOLOv3和YOLOv4。 根据所使用的YOLO模型,相应地更改命令。 搭建环境 安装依赖项 当前环境: 杰特逊... -
mtcnn_facenet_cpp_tensorRT:使用TensorRT在NVIDIA Jetson(Nano)上进行人脸识别
2021-05-02 07:16:51使用TensorRT的NVIDIA Jetson(Nano)的人脸识别 带有架构的人脸识别和David Sandberg( )使用TensorRT和OpenCV重新训练的模型。 该项目基于FaceNet模型的输出层中所需的l2norm helper函数的实现。 链接到: 。 ... -
TensorRT-8.2.1.8.Windows10.x86_64.cuda-11.4.cudnn8.2.zip
2022-06-16 16:17:06TensorRT-8.2.1.8.Windows10.x86_64.cuda-11.4.cudnn8.2.zip使用需要的环境: win10 x64 tensorrt==8.2.1.8 cuda==11.4 cudnn==8.2 -
TensorRT-8.0.1.6.Windows10.x86_64.cuda-11.3.cudnn8.2.zip
2022-06-16 16:04:37TensorRT-8.0.1.6.Windows10.x86_64.cuda-11.3.cudnn8.2.zip使用需要的环境: win10 x64 tensorrt==8.0.1.6 cuda==11.3 cudnn==8.2 -
TensorRT-8.2.5.1.Windows10.x86_64.cuda-11.4.cudnn8.2.zip
2022-05-30 10:54:16NVIDIA官网资源TensorRT 8.2 GA Update 4,请仔细核对版本 TensorRT-8.2.5.1.Windows10.x86_64.cuda-11.4.cudnn8.2.zip -
TensorRT-8.2.0.6.Windows10.x86_64.cuda-10.2.cudnn8.2.zip
2022-06-16 16:09:42TensorRT-8.2.0.6.Windows10.x86_64.cuda-10.2.cudnn8.2.zip使用需要的环境: win10 x64 tensorrt==8.2.0.6 cuda==10.2 cudnn==8.2 -
TensorRT_quantization_demo_cifar10:该演示旨在展示如何构建Resnet18 TensorRT int8引擎。 并演示校准数据...
2021-04-19 21:36:50TensorRT_quantization_demo_cifar10 该演示旨在展示如何为cifar10分类任务构建TensorRT INT8引擎。 它还证明了校准数据集的大小如何影响量化后的最终精度。 基本代码来自TensorRT python示例之一: 。 为了演示... -
tensorrt5.1双线性上采样插件
2020-11-17 20:47:34针对tensorrt5.1实现的双线性上采样插件,插件实测无误。如果用nvidia的gpu,在推理的时候,采用tensorrt进行加速是一个很好的选择,虽然tensorrt没有开源。 -
pytorch 将onnx模型转换为trt TensorRT模型
2022-03-20 20:06:58适用于TensorRT8.0版本及以上 使用步骤 1、chmod 添加文件执行权限 2、将onnx路径修改为自己的onnx模型路径 3、运行py问价 -
YOLOv5实战+TensorRT部署+VS2019编译[全部软件下载]
2021-08-30 09:37:53使用TensorRT来加速部署YOLOv5项目,此文档中包含全部 软件及依赖库 在Win10系统上完成,需要用到的软件与依赖包有:cuda 10.2 , cudnn 7.6.5 , VS2019 , OpenCV 3.4.0 , Anaconda3 , CMake 3.19.4 , TensorRT 7 ... -
tensorrt-laboratory:探索TensorRT平台的功能
2021-02-03 16:01:19TensorRT实验室TensorRT实验室(trtlab)是构建客户推理应用程序和服务的通用工具集。 是专业级的生产推理服务器。 该项目分为4个主要组成部分: memory基于 , memory模块旨在为主机和gpu内存编写自定义分配器。 ... -
TensorRT-8.2.0.6.Windows10.x86_64.cuda-10.2.cudnn8.2
2022-05-16 15:55:40TensorRT-8.2.0.6.Windows10.x86_64.cuda-10.2.cudnn8.2 windsows版本,使用的时候将lib include bin中的文件放到对应的你的如C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0路径下的 lib include bin... -
英伟达TensorRT
2020-11-03 08:49:54本资源为英伟达官方提供的可以加速推理tensorflow caffe yolov3 v4等框架的程序,其中官网很难访问成功(如果下载积分过高可私信我降低,csdn会自动提高)
收藏数
15,749
精华内容
6,299