OnnxRuntime – 如何部署多个输入和多个输出tensor的onnx模型
1 OnnxRuntime如何部署多个输入和多个输出的模型
1.1 OnnxRuntime仓库问题答疑
这个问题其实在OnnxRuntime的Github下面的FAQ.md文档中直接回答过这个问题,这个问题的链接在这里。
在这个问题的回答中官方还贴心的给出了一个有3个输入和3个输出的模型推理示例代码文件:test_inference.cc,其中关于多个输入和多个输入的模型推理关键代码片段如下
std::vector<Ort::Value> ort_inputs;
ort_inputs.push_back(std::move(label_input_tensor));
ort_inputs.push_back(std::move(f2_input_tensor));
ort_inputs.push_back(std::move(f11_input_tensor));
std::vector<const char*> input_names = {"Label", "F2", "F1"};
const char* const output_names[] = {"Label0", "F20", "F11"};
std::vector<Ort::Value> ort_outputs = session.Run(
Ort::RunOptions{nullptr},
input_names.data(),
ort_inputs.data(),
ort_inputs.size(),
output_names,
countof(output_names)
);
1.2 细看OnnxRuntime的文档
Ort::Session::Run
这个函数是模型推理的关键函数,我们可以通过查看OnnxRuntime的文档,看看这个函数的形式和参数。
Ort::Session::Run
有几个函数重载形式,比如
std::vector<Value> Run (const RunOptions &run_options, const char *const *input_names, const Value *input_values, size_t input_count, const char *const *output_names, size_t output_count)
-
void Run (const RunOptions &run_options, const char *const *input_names, const Value *input_values, size_t input_count, const char *const *output_names, Value *output_values, size_t output_count)
void Run (const RunOptions &run_options, const IoBinding &)
另外还有一个RunAsync
用于异步推理
RunAsync (const RunOptions &run_options, const char *const *input_names, const Value *input_values, size_t input_count, const char *const *output_names, Value *output_values, size_t output_count, RunAsyncCallbackFn callback, void *user_data)
1.2.1 std::vector Run重载函数
本文就以第一个重载函数std::vector<Value> Run
为例介绍一下函数各个输入参数:
函数形式
std::vector<Value> Run (
const RunOptions &run_options,
const char *const *input_names,
const Value *input_values,
size_t input_count,
const char *const *output_names,
size_t output_count
)
函数返回值
返回模型推理结果,存储在std::vector
中。
函数参数
- run_options
- input_names:长度为 input_count 的以 null 结尾的字符串数组,即输入名称列表
- input_values:长度为 input_count 的Ort::Value的数组,即输入值列表
- input_count:输入tensor数量,即input_names和input_values的大小
- output_names:长度为 output_count 的C风格字符串数组,即输出名称列表
- output_count:输出tensor数量,即output_names的大小
从上述输入参数我们可以得出,其实input_values是一个const Ort::Value*
类型,既可以是一个指向Ort::Value
的指针,也可以是指向一段Ort::Value
类型的连续存储的首地址,比如Ort::Value
数组或者std::vector<Ort::Value>
,所以多个输入tensor,只需要将模型的多个输入构成Ort::Value
,然后放到一个数组或者std::vector
中即可。如果是数组直接传数组指针,如果是std::vector
可以通过.data()
获取首地址进行传参。
同理对于多个输出,如果模型推理成果,则多个输出tensor则全部存储返回的std::vector<Ort::Value>
中,按模型输出名称顺序就可以得到每个输出tensor的值了。
参考链接
本文作者:StubbornHuang
版权声明:本文为站长原创文章,如果转载请注明原文链接!
原文标题:OnnxRuntime – 如何部署多个输入和多个输出tensor的onnx模型
原文链接:https://www.stubbornhuang.com/2766/
发布于:2023年08月24日 10:49:03
修改于:2023年08月24日 13:41:29
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
评论
50