最近工作上需要在C++上快速集成Tensorflow/Keras
训练好的模型,做算法验证。首先想到的就是opencv
里面的dnn
模块了,但是它需要的格式文件比较郁闷,是pb
格式的模型,但是keras
通常保存的是h5
文件,查阅了很多资料,最后找到了很方便的方法。
国际惯例,参考博客
Frozen_Graph_TensorFlow
这个地址的大佬用fashion mnist
写的训练和测试,我这里用更简单的线性回归为例。
老样子,引入相关的包,创建数据集
import numpy as np
import tensorflow as tf
# build data
input_x = np.random.rand(1000, 4)
output_y = np.dot(input_x,np.array([[3],[14],[6],[10]]))
然后创建简单的模型
# build model
inputs = tf.keras.layers.Input(shape=(4,));
outputs = tf.keras.layers.Dense(units=1)(inputs)
model = tf.keras.Model(inputs=inputs,outputs=outputs)
编译、训练
model.compile(optimizer=tf.keras.optimizers.SGD(learning_rate=0.01),loss='mse')
model.fit(x=input_x,y=output_y,epochs=100,validation_split=0.1)
看看训练完毕的权重是否接近我们创建的权重
model.get_weights()
'''
[array([[ 2.669988],
[13.562156],
[ 5.622848],
[ 9.587276]], dtype=float32),
array([0.80391794], dtype=float32)]
'''
保存的时候就需要注意了,要保存成pb
格式的,不要直接model.save
成h5
格式的,如果你已经保存完了,可以model.load_model
载入进来,然后再执行如下函数
# Convert Keras model to ConcreteFunction
full_model = tf.function(lambda x: model(x))
full_model = full_model.get_concrete_function(
tf.TensorSpec(model.inputs[0].shape, model.inputs[0].dtype))
# Get frozen ConcreteFunction
frozen_func = convert_variables_to_constants_v2(full_model)
frozen_func.graph.as_graph_def()
layers = [op.name for op in frozen_func.graph.get_operations()]
print("-" * 50)
print("Frozen model layers: ")
for layer in layers:
print(layer)
print("-" * 50)
print("Frozen model inputs: ")
print(frozen_func.inputs)
print("Frozen model outputs: ")
print(frozen_func.outputs)
# Save frozen graph from frozen ConcreteFunction to hard drive
tf.io.write_graph(graph_or_graph_def=frozen_func.graph,
logdir="./frozen_models",
name="frozen_graph.pb",
as_text=False)
'''
--------------------------------------------------
Frozen model layers:
x
model/dense/MatMul/ReadVariableOp/resource
model/dense/MatMul/ReadVariableOp
model/dense/MatMul
model/dense/BiasAdd/ReadVariableOp/resource
model/dense/BiasAdd/ReadVariableOp
model/dense/BiasAdd
Identity
--------------------------------------------------
Frozen model inputs:
[]
Frozen model outputs:
[]
'''
这样就会在./frozen_models/frozen_graph.pb
目录下看到模型了。
在参考博客中,作者也提供了对应的调用方法
def wrap_frozen_graph(graph_def, inputs, outputs, print_graph=False):
def _imports_graph_def():
tf.compat.v1.import_graph_def(graph_def, name="")
wrapped_import = tf.compat.v1.wrap_function(_imports_graph_def, [])
import_graph = wrapped_import.graph
print("-" * 50)
print("Frozen model layers: ")
layers = [op.name for op in import_graph.get_operations()]
if print_graph == True:
for layer in layers:
print(layer)
print("-" * 50)
return wrapped_import.prune(
tf.nest.map_structure(import_graph.as_graph_element, inputs),
tf.nest.map_structure(import_graph.as_graph_element, outputs))
通过tensorflow1.x
载入模型
with tf.io.gfile.GFile("./frozen_models/frozen_graph.pb", "rb") as f:
graph_def = tf.compat.v1.GraphDef()
loaded = graph_def.ParseFromString(f.read())
随后生成预测函数
frozen_func = wrap_frozen_graph(graph_def=graph_def,
inputs=["x:0"],
outputs=["Identity:0"],
print_graph=True)
调用这个预测函数试验一下:
test_x = np.array([[1,1,1,1]],np.float32)
pred_y = frozen_func(x=tf.constant(test_x))[0]
print(pred_y)#tf.Tensor([[32.246185]], shape=(1, 1), dtype=float32)
true_y = np.dot(test_x,np.array([[3],[14],[6],[10]]))
print(true_y) #[[33.]]
这个非常简单了,四句话完成创建测试数据、读取模型、载入数据、预测
test_x = np.array([[1,1,1,1]],np.float32)
net = cv2.dnn.readNetFromTensorflow("./frozen_models/frozen_graph.pb")
net.setInput(test_x)
pred = net.forward()
print(pred)#[[32.246185]]
与上面用tensorflow
调用的结果一模一样。
核心就在于opencv的readNetFromTensorflow
接受的输入固定是InputArray
类型的,这个类型等价于Mat、vector
等,具体可以上网查。这里我们需要创建一个大小为(1,4)
的Mat
数据;
下面这个函数就是使用数组去初始化Mat
数据
void InitMat(Mat& m,float* num)
{
for(int i=0;i(i,j)=*(num+i*m.rows+j);
}
创建一个Mat
数据
float sz[] = {1,1,1,1};
Mat input(1,4,CV_32F);
InitMat(input, sz);
接下来就是读取模型、载入数据、预测
dnn::Net net = dnn::readNetFromTensorflow("./frozen_models/frozen_graph.pb");
net.setInput(input);
Mat pred = net.forward();
cout<