NCNN – 在windows上转换onnx模型为ncnn的param,bin格式
1 在windows上转换onnx模型为ncnn的param,bin格式 在Windows系统上可以直接使用ncnn在windows上的发布包里面的onnx2ncnn.exe程序对onnx模型进行转换,我们可以在ncnn的发布页https://github.com/Tencent/ncnn/rele…
- NCNN
- 2023-03-22
NCNN – 在ncnn中实现Pytorch中相同的图片归一化,减均值,除方差预处理
1 Pytorch中对图片的预处理 在Pytorch中一般使用torchvision.transforms对图片进行归一化处理,比如经常会使用以下的代码 transforms.Compose([ transforms.RandomCrop((224, 224)), # 随机裁剪成224x224 tr…
- NCNN
- 2023-03-22
NCNN – Windows编译NCNN项目出现无法打开包括文件vulkan.h的错误
1 问题 这两天在Windows上使用NCNN进行模型部署,在VS项目中配置好NCNN的头文件、lib之后,编译项目出现了以下错误 fatal error C1083: 无法打开包括文件: “vulkan/vulkan.h”: No such file or directory 我这里使用的ncnn…
- NCNN
- 2023-03-22
NCNN – Windows下使用Visual Studio编译NCNN小白教程
1 安装Visual Studio 从微软官网下载Visual Studio,现在最新的版本是Visual Studio 2022, 下载Visual Studio 2022可以从这个网址下载:https://visualstudio.microsoft.com/zh-hans/ 如果需要下载Vis…
- NCNN
- 2023-03-22
Onnx – onnx模型简化与优化
在使用onnx模型在其他框架进行部署时,一般都需要对onnx模型进行简化和优化。 1 onnx模型简化 对模型进行简化一般使用onnx-simplifier包 可以通过以下命令安装 pip install onnx-simplifier 然后就可以在项目导出onnx模型之后,使用以下代码对onnx模…
- Onnx
- 2023-03-21
NCNN – 使用onnx2ncnn工具将onnx转换ncnn模型出现Shape not supported yet!,Unknown data type 0错误
1 使用onnx2ncnn转换onnx模型到ncnn格式出错 使用NCNN中的onnx2ncnn工具转换onnx模型到ncnn格式出现错误,使用的转换命令如下 ./onnx2ncnn.exe ./mobile.onnx ./mobile.param ./mobile.bin 出现了以下错误: Sha…
- NCNN
- 2023-03-21
移动端Android/ios深度学习模型部署框架总结
本文对在移动端深度模型部署时目前常用的框架进行粗略总结。 1 NCNN Github:https://github.com/Tencent/ncnn 企业:腾讯 NCNN是一个为手机端极致优化的高性能神经网络前向计算框架。 ncnn 从设计之初深刻考虑手机端的部署和使用。 无第三方依赖,跨平台,手机…
- 模型部署
- 2023-03-21
OnnxRuntime – 模型部署笔记2,在Visual Studio中配置Onnx Rumtime C++开发环境
Onnx Runtime模型部署笔记系列: Onnx Runtime – 模型部署笔记1,Onnx Runtime简介 Onnx Runtime – 模型部署笔记2,在Visual Studio中配置Onnx Rumtime C++开发环境 1 下载Onnx Runtime Onnx Runtime…
- OnnxRuntime
- 2023-03-20
OnnxRuntime – 模型部署笔记1,OnnxRuntime简介
OnnxRuntime模型部署笔记系列: Onnx Runtime – 模型部署笔记1,Onnx Runtime简介 Onnx Runtime – 模型部署笔记2,在Visual Studio中配置Onnx Rumtime C++开发环境 1 Onnx Runtime Onnx Runtime 官网…
- OnnxRuntime
- 2023-03-20
TensorRT – 基于TensorRT的多线程并发推理方案
1 TensorRT的多线程并发推理方案 TensorRT在对模型推理速度已经有了非常大的提升了,那如果能够基于TensorRT做并行推理,既可以有效降低推理延迟,也能增加服务吞吐量,那岂不是酷毙了? 那么能用TensorRT做多线程并发吗? 我们看看TensorRT的官方开发者文档怎么说: In …
- TensorRT
- 2023-03-06
TensorRT – 计算模型推理时间
1 TensorRT的性能衡量标准 使用 TensorRT 进行模型优化工作之前,必须确定应该测量什么。没有衡量标准,就不可能取得可靠的进展或衡量是否取得了成功 Latency 第一个衡量标准是从输入数据经过网络然后输出的时间,这个时间称为延迟(Latency)。在一些项目中,较低的模型推理延迟是非…
- TensorRT
- 2023-03-06
TensorRT – Using an engine plan file across different models of devices is not recommended and is likely to affect performance or even cause errors
1 TensorRT加载模型出现警告Using an engine plan file across different models of devices is not recommended and is likely to affect performance or even cause er…
- TensorRT
- 2023-03-03