“GetInputName“: 不是 “Ort::Session“ 的成员

项目场景:

使用C++和ONNXruntime部署深度学习模型


问题描述

作者在尝试使用onnxruntime和C++部署深度学习模型推理的时候,按照官网的文档对于Ort::Session::Run的定义(如下),需要获得模型输入层与输出层的名字。

std::vector< Value > Ort::Session::Run	(	
                const RunOptions & 	run_options,
                const char *const * input_names,
                const Value * input_values,
                size_t 	input_count,
                const char *const * 	output_names,
                size_t 	output_count 
                )		

于是网上大部分的代码使用的方法是使用GetInputName()与GetOutputName()方法获得上述内容。 

但是在执行时会报错,如标题。


原因分析:

我继续查阅了官网对于这两个方法的描述:

“GetInputName“: 不是 “Ort::Session“ 的成员_第1张图片

“GetInputName“: 不是 “Ort::Session“ 的成员_第2张图片

 可以发现这两个方法已经被弃用并替换成了GetInputNameAllocated()与GetOutputNameAllocated()


 

解决方案:

以我的代码为例:

原代码如下:

vector input_names;
vector output_names;
vector> input_node_dims;
vector> output_node_dims;
for (int i = 0; i < numInputNodes; i++)
{
	input_names.push_back(ort_session->GetInputName(i, allocator));
	Ort::TypeInfo input_type_info = ort_session->GetInputTypeInfo(i);
	auto input_tensor_info = input_type_info.GetTensorTypeAndShapeInfo();
	auto input_dims = input_tensor_info.GetShape();
	input_node_dims.push_back(input_dims);
}
for (int i = 0; i < numOutputNodes; i++)
{
	output_names.push_back(ort_session->GetOutputName(i, allocator));
	Ort::TypeInfo output_type_info = ort_session->GetOutputTypeInfo(i);
	auto output_tensor_info = output_type_info.GetTensorTypeAndShapeInfo();
	auto output_dims = output_tensor_info.GetShape();
	output_node_dims.push_back(output_dims);
}

只需将GetInputName()与GetOutputName()所在的行改为如下:

AllocatedStringPtr input_name_Ptr = ort_session->GetInputNameAllocated(i, allocator);
input_names.push_back(input_name_Ptr.get());

AllocatedStringPtr output_name_Ptr= ort_session->GetInputNameAllocated(i, allocator);
output_names.push_back(output_name_Ptr.get());

即可成功运行。

你可能感兴趣的:(算法,dnn,人工智能,c++)