4.36 构建onnx结构模型-Where

前言

构建onnx方式通常有两种:
1、通过代码转换成onnx结构,比如pytorch —> onnx
2、通过onnx 自定义结点,图,生成onnx结构

本文主要是简单学习和使用两种不同onnx结构,
下面以 Where 结点进行分析
4.36 构建onnx结构模型-Where_第1张图片

方式

方法一:pytorch --> onnx

暂缓,主要研究方式二

方法二: onnx

import onnx
from onnx import helper
from onnx import TensorProto

# 创建一个空的ONNX图
graph = helper.make_graph(nodes=[], name='Where_Operation_Graph', inputs=[], outputs=[])

# 创建Where操作节点的输入参数
input_data = helper.make_tensor_value_info('input_data', TensorProto.FLOAT, [3, 3])  # 输入数据张量的形状为[3, 3]

graph.input.extend([input_data])

# 创建Where操作节点
nonzero_node = helper.make_node('Where', ['input_data'], ['output'], name='Where_Node')  

# 添加Where操作节点到图中
graph.node.extend([nonzero_node])

# 创建Where操作节点的输出参数
output = helper.make_tensor_value_info('output', TensorProto.INT64, [2, 2])  # 输出张量形状为[2, 2]
graph.output.extend([output])

# 创建ONNX模型
model = helper.make_model(graph, producer_name='ONNX_Where_Operation_Example')

# 保存ONNX模型到文件
onnx.save(model, 'where_model.onnx')

你可能感兴趣的:(模型推理,python,onnx)