Tensorflow Serving部署推荐模型

Tensorflow Serving部署推荐模型

1、找到当前模型中定义的variables,并在此定义一个saver用于保存模型参数

def saveVariables(self):
    variables_dict = {}
    variables_dict[self.user_embedding.op.name] = self.user_embedding
    variables_dict[self.item_embedding.op.name] = self.item_embedding

    for v in self.reduce_dimension_layer.variables:
        variables_dict[v.op.name] = v

    self.saver = tf.train.Saver(variables_dict)

在模型的输入和输出的地方,尽量自行定义name,这样在之后的部署的时候会方便很多!

self.item_input = tf.placeholder("int32", [None, 1],name="gat_iteminput") 
self.user_input = tf.placeholder("int32", [None, 1],name="gat_userinput") 
...
self.prediction = tf.sigmoid(tf.reduce_sum(self.predict_vector, 1, keepdims=True),name="gat_predict")

2、在需要保存模型参数的地方调用save方法,一般建议在模型取到最高指标处保存模型

#此处的saver为上面模型中定义的saver
#sess即为session;weights_save_path为自定义的文件路径;global_step表示当前为第几次epoch
model.saver.save(sess, weights_save_path + '/weights', global_step=epoch)

3、最终会保存为如下图所示的文件

在这里插入图片描述

110、111、112、119、127是最近5次模型指标最高的5次记录,可以根据自己需要选择最高的记录,也可以在self.saver = tf.train.Saver(variables_dict)这里指定好保存的次数,例如保留最多两次:self.saver = tf.train.Saver(variables_dict,max_to_keep=2)

此处训练中,我得到的最高指标epoch为127,所以我使用127的weights

在这里插入图片描述

因为tensorflow serving需要saved_model的格式,所以我们需要将ckpt的格式转成savedModel格式,转换的代码如下:

import tensorflow as tf

#两个参数都是文件夹的名称,一个是ckpt文件所在文件夹,一个是之后导出的文件夹
def restore_and_save(input_checkpoint, export_path):
    checkpoint_file = tf.train.latest_checkpoint(input_checkpoint)
    graph = tf.Graph()
    with graph.as_default():
        session_conf = tf.ConfigProto(allow_soft_placement=True, log_device_placement=False)
        sess = tf.Session(config=session_conf)

        with sess.as_default():
            # 载入保存好的meta graph,恢复图中变量,通过SavedModelBuilder保存可部署的模型
            saver = tf.train.import_meta_graph("{}.meta".format(checkpoint_file))
            saver.restore(sess, checkpoint_file)
            print("graph.get_name_scope()=",graph.get_name_scope())
            # for node in graph.as_graph_def().node:
            #     print(node.name)
            builder = tf.saved_model.builder.SavedModelBuilder(export_path)

            # 建立签名映射,需要包括计算图中的placeholder(ChatInputs, SegInputs, Dropout)和
            # 我们需要的结果(project/logits,crf_loss/transitions)
            """
            build_tensor_info
            建立一个基于提供的参数构造的TensorInfo protocol buffer,
            输入:tensorflow graph中的tensor;
            输出:基于提供的参数(tensor)构建的包含TensorInfo的protocol buffer

            get_operation_by_name
            通过name获取checkpoint中保存的变量,能够进行这一步的前提是在模型保存的时候给对应的变量赋予name
            """
            user_inputs = tf.saved_model.utils.build_tensor_info(
                graph.get_tensor_by_name("gat_userinput:0"))
            item_inputs = tf.saved_model.utils.build_tensor_info(
                graph.get_tensor_by_name("gat_iteminput:0"))
            prediction = tf.saved_model.utils.build_tensor_info(
                graph.get_tensor_by_name("gat_predict:0"))
            print("user_inputs=",user_inputs)
            print("item_inputs=",item_inputs)
            print("prediction=",prediction)

            sess.run(tf.global_variables_initializer())
            sess.run(tf.local_variables_initializer())

            """
            signature_constants
            SavedModel保存和恢复操作的签名常量。
            在序列标注的任务中,这里的method_name是"tensorflow/serving/predict"
            """
            # 定义模型的输入输出,建立调用接口与tensor签名之间的映射
            labeling_signature = (
                tf.saved_model.signature_def_utils.build_signature_def(
                    inputs={
                        "user_inputs": user_inputs,
                        "item_inputs": item_inputs
                    },
                    outputs={
                        "prediction": prediction
                    },
                    method_name="tensorflow/serving/predict"
                ))

            """
            tf.group
            创建一个将多个操作分组的操作,返回一个可以执行所有输入的操作
            """
            # legacy_init_op = tf.group(tf.tables_initializer(), name='legacy_init_op')

            """
            add_meta_graph_and_variables
            建立一个Saver来保存session中的变量,输出对应的原图的定义,这个函数假设保存的变量已经被初始化;
            对于一个SavedModelBuilder,这个API必须被调用一次来保存meta graph;
            对于后面添加的图结构,可以使用函数 add_meta_graph()来进行添加
            """
            # 建立模型名称与模型签名之间的映射
            builder.add_meta_graph_and_variables(
                sess, [tf.saved_model.tag_constants.SERVING],
                # 保存模型的方法名,与客户端的request.model_spec.signature_name对应
                signature_def_map={
                    tf.saved_model.signature_constants.DEFAULT_SERVING_SIGNATURE_DEF_KEY:labeling_signature
                })

            builder.save()
            print("Build Done")


# 模型格式转换
restore_and_save("ckpt","saved_model")

最后转换成功后的文件夹目录如下:

在这里插入图片描述

下面是一些查看节点和张量的代码:

import tensorflow as tf
# from parser_predict import parse_args
from tensorflow.python import pywrap_tensorflow
from tensorflow.python.framework import graph_util

import os


def get_pretrain_path():
    pretrain_path= "ckpt"
    print("get_pretrain_path="+str(pretrain_path))
    return pretrain_path


def get_ckpt_file():
    return tf.train.get_checkpoint_state(os.path.dirname(get_pretrain_path() + '/checkpoint'))


def get_tensors_name():
    ckpt = get_ckpt_file()
    if ckpt and ckpt.model_checkpoint_path:
        reader = pywrap_tensorflow.NewCheckpointReader(ckpt.model_checkpoint_path)
        var_to_shape_map = reader.get_variable_to_shape_map()
        for key in var_to_shape_map:
            print('tensor_name: ', key)
    else:
        print('wrong path')


def get_nodes_name():
    ckpt = get_ckpt_file()
    print("ckpt.model_checkpoint_path="+str(ckpt.model_checkpoint_path))
    if ckpt and ckpt.model_checkpoint_path:
        saver = tf.train.import_meta_graph(ckpt.model_checkpoint_path + '.meta', clear_devices=True)
        with tf.Session() as sess:
            saver.restore(sess, ckpt.model_checkpoint_path)
            graph_def = tf.get_default_graph().as_graph_def(add_shapes=True)
            node_list = [n.name for n in graph_def.node]
            for node in node_list:
                print('node_name: ', node)


def get_operations_name():
    ckpt = get_ckpt_file()
    if ckpt and ckpt.model_checkpoint_path:
        with tf.Session() as sess, open('../log/gat_operation_log', 'w', encoding='utf-8') as log:
            sess.run(tf.global_variables_initializer())
            tf.train.import_meta_graph(ckpt.model_checkpoint_path + '.meta', clear_devices=True)
            for operation in tf.get_default_graph().get_operations():
                log.write(operation.name + '\n')


def freeze_graph( pb_file_path):
    ckpt = get_ckpt_file()
    if ckpt and ckpt.model_checkpoint_path:
        saver = tf.train.import_meta_graph(ckpt.model_checkpoint_path + '.meta', clear_devices=True)
        graph = tf.get_default_graph()
        input_graph_def = graph.as_graph_def()

        with tf.Session() as sess:
            # 恢复图并得到数据
            print(sess.run(tf.global_variables_initializer()))
            print(sess.run(tf.local_variables_initializer()))
            saver.restore(sess, ckpt.model_checkpoint_path)
            # 模型持久化,将变量值固定
            output_graph_def = graph_util.convert_variables_to_constants(
                sess=sess,
                input_graph_def=input_graph_def,
                output_node_names=['gat_predict'])  # 注意是节点名称不是张量名称

            # 保存模型
            with tf.gfile.GFile(pb_file_path, 'wb') as f:
                # 序列化输出
                f.write(output_graph_def.SerializeToString())
            # 得到当前图的操作节点
            nodes = output_graph_def.node
            print('%d ops in the final graph.' % len(nodes))


def load_freeze_graph(pb_file_path):
    with tf.Session() as sess:
        graph = load_pb(pb_file_path)

        # 定义输入的张量名称,对应网络结构的输入张量
        input_user_id = graph.get_tensor_by_name('user_embedding')

        # 定义输出的张量名称
        output_tensor_name = graph.get_tensor_by_name('item_embedding')

        # 测试读出来的模型是否正确
        # 注意这里传入的是输出和输入节点的tensor的名字,不是操作节点的名字
        out = sess.run(output_tensor_name, feed_dict={input_user_id: [0]})
        print('out:', out)


def load_pb(pb_file_path):
    with tf.gfile.GFile(pb_file_path, "rb") as f:
        graph_def = tf.GraphDef()
        graph_def.ParseFromString(f.read())
    with tf.Graph().as_default() as graph:
        tf.import_graph_def(graph_def, name='')
        return graph


if __name__ == '__main__':
    # get_tensors_name()
    # get_nodes_name()
    #freeze_graph('gat.pb') #此处功能不正确,但是可以参考下
    # get_operations_name()
    # load_freeze_graph('gat.pb')#此处功能不正确,但是可以参考下

4、安装好docker,并下载tensorflow serving的镜像

在这里插入图片描述

5、编写dockerfile

from:表示使用tensorflow/serving:latest的docker基础镜像

RUN:在镜像变成容器时,可以执行的命令(直接docker run进行/挂载也是一样的,这里为了方便);此处的命令意思为创建文件夹models,并在models下创建gat文件夹,并在gat文件夹下面创建1文件夹

ADD:有两个参数,前一个参数指的是当前机器上的文件夹名称,后一个参数指的是创建出来的容器的文件夹名称。此处的命令意思是将当前机器上的gat(相对路径)文件夹下的所有东西,都复制到docker创建出来的容器中的/models/gat/1/文件夹下

ENV:设置系统变量

from tensorflow/serving:latest

RUN mkdir -p /models/gat/1
ADD gat  /models/gat/1/
ENV MODEL_NAME=gat

当前dockerfile文件名称为:GatDockerFile

6、构建镜像

#-f后面跟着dockerfile文件名称;-t后面跟着自定义的创建出来的镜像名称;冒号后面的1.0代表自定义的版本号;最后的那个点号一定要加上
docker build -f GatDockerFile -t gat:1.0 .

构建完成后,会出现下面的提示:

在这里插入图片描述

然后使用docker image ls可以看到已经成功构建了镜像:

在这里插入图片描述

7、创建容器实例:

#8508:指的是本机的端口号(此处可以更改为其他,只要本机上的这个端口号没有被占用就可以)
#8501:指的是容器中的端口号,因为tensorflow serving是通过8501提供服务的,所以此处最好不要修改
#--name:后面跟着的是自己创建的容器名称,自定义
#-d:指的是后台运行
#gat:1.0是刚才我们创建的镜像名称+版本号
docker run -p 8508:8501 --name gatContainer -d gat:1.0

输入命令后,如果出现一串很长的字符,并且没有报错,则代表创建成功,可以使用docker ps 查看

在这里插入图片描述

STATUS为Up… 说明已经启动成功

http://主机ip地址:8508/v1/models/gat
http://主机ip地址:8508/v1/models/gat/metadata

整体格式如下:

在这里插入图片描述

细节:

此处就是模型的名称:

在这里插入图片描述

此处是模型的输入和输出:

  • 输入就是:user_inputsitem_inputs
  • 输出就是:prediction

参数名是上面定义的,具体的数据格式如图所示了

在这里插入图片描述
在这里插入图片描述

可以使用postman进行测试:

http://主机IP地址:8508/v1/models/gat:predict

在这里插入图片描述

参考:

整套流程+多模型部署,强烈建议参考这篇:https://blog.csdn.net/tianyunzqs/article/details/103842894

你可能感兴趣的:(推荐系统,知识图谱,推荐系统,神经网络,tensorflow)