【Tensorflow】Tensorflow serving模型部署(三):制作包含已训练好的object detection模型的docker镜像

在前两篇博客里已经介绍了如何配置用tensorflow serving部署深度学习模型的环境和导出tensorflow serving可用的savedmodel模型文件。

1. 【Tensorflow】Tensorflow serving模型部署(一):运行官方demo

2. 【Tensorflow】Tensorflow serving模型部署(二):导出savedmodel模型

这一篇介绍如何制作包含训练好的模型的docker镜像。

一、拉取一个基础镜像

我选择的tensorflow serving 1.12.0 gpu版本的镜像。

docker pull tensorflow/serving:1.12.0-gpu

二、运行一个基础镜像的容器

docker run -d --name tfserving_gpu tensorflow/serving:1.12.0-gpu

-d:以后台守护进程的方式运行容器。

--name:将这个容器命名为tfserving_name。

这个时候会输出一串

你可能感兴趣的:(Docker,深度学习,tensorflow)