tensorflow
下载并运行
- 阿里镜像 docker run -it registry.cn-hangzhou.aliyuncs.com/denverdino/tensorflow bash
或
- 较原生方式 (直接docker pull tensorflow/tensorflow 被墙,借用) docker pull registry.cn-hangzhou.aliyuncs.com/denverdino/tensorflow docker tag registry.cn-hangzhou.aliyuncs.com/denverdino/tensorflow tensorflow/tensorflow docker run -it -p 8888:8888 tensorflow/tensorflow
使用
照提示
Copy/paste this URL into your browser when you connect for the first time,
to login with a token:
http://localhost:8888/?token=8cf1adc4f51f524440a264d0314f18e618cad6ddf6ae4ed6
tensorflow-serving
简介
TensorFlow Serving是GOOGLE开源的一个服务系统,适用于部署机器学习模型,灵活、性能高、可用于生产环境。 TensorFlow Serving可以轻松部署新算法和实验,同时保持相同的服务器架构和API,它具有以下特性:
- 支持模型版本控制和回滚
- 支持并发,实现高吞吐量
- 开箱即用,并且可定制化
- 支持多模型服务
- 支持批处理
- 支持热更新
- 支持分布式模型
- 易于使用的inference api
- gRPC和HTTP请求。gRPC默认端口是8500,HTTP请求的默认端口是8501
- 镜像中的程序会自动加载镜像内/models下的模型,通过MODEL_NAME指定/models下的哪个模型
安装和使用演示
使用一个名为的玩具模型Half Plus Two,它0.5 * x + 2为x我们提供的预测值生成。 (这里使用的是CPU版本。如果使用 tensorflow/serving:latest-gpu,此模型将操作绑定到GPU设备,并且不会在CPU上运行)
//下载安装
cd /data/
git clone https://github.com/tensorflow/serving
docker pull tensorflow/serving:latest
//运行
docker run -p 8501:8501 --mount type=bind,source=/data/serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_two_cpu,target=/models/half_plus_two -e MODEL_NAME=half_plus_two -t tensorflow/serving:latest &
//使用
curl -d '{"instances": [1.0, 2.0, 5.0]}' -X POST http://localhost:8501/v1/models/half_plus_two:predict
运行参数说明
--mount: 表示要进行挂载
source: 指定要运行部署的模型地址, 也就是挂载的源,这个是在宿主机上的servable模型目录(pb格式模型而不是checkpoint模型)
target: 这个是要挂载的目标位置,也就是挂载到docker容器中的哪个位置,这是docker容器中的目录,模型默认挂在/models/目录下,如果改变路径会出现找不到model的错误
-t: 指定的是挂载到哪个容器
-d: 后台运行
-p: 指定主机到docker容器的端口映射
-e: 环境变量
-v: docker数据卷
--name: 指定容器name,后续使用比用container_id更方便
docker run: 启动这个容器并启动模型服务(这里是如何同时启动容器中的模型服务的还不太清楚)
模型转化
平时使用tf.Saver()保存的模型是checkpoint格式的,但是在TensorFlow Serving中一个servable的模型目录中是一个pb格式文件和一个名为variables的目录,因此需要在模型保存时就保存好可部署的模型格式,或者将已经训练好的checkpoint转换为servable format
但这个转化目前还是比较定制化的,需要不少工作
多模型部署
一个任务可能需要用到多个模型,例如命名实体识别我训练了多个模型,对每个句子都需要汇总所有模型的结果,这时就需要用到多模型部署。 多模型部署时,无法在命令行中指定MODEL_NAME了,需要编写一个如下的json配置文件,这里取名为model.config
model_config_list: {
config: {
name: "model1",
base_path: "/models/model1",
model_platform: "tensorflow",
model_version_policy: {
all: {}
},
config: {
name: "model2",
base_path: "/models/model2",
model_platform: "tensorflow",
model_version_policy: {
latest: {
num_versions: 1
}
}
},
config: {
name: "model3",
base_path: "/models/model3",
model_platform: "tensorflow",
model_version_policy: {
specific: {
versions: 1
}
}
}
}
- model_version_policy指定模型版本
- 可以删除,默认是部署最新版本的模型
- 如果想要部署指定版本或者全部版本,需要单独设定
启动多模型服务命令时,需要将所有模型和配置文件逐个绑定,然后指定配置文件路径
docker run -d -p 8500:8500 --mounttype=bind,source=/path/to/source_models/model1/,target=/models/model1 --mounttype=bind,source=/path/to/source_models/model2/,target=/models/model2 --mounttype=bind,source=/path/to/source_models/model3/,target=/models/model3 --mounttype=bind,source=/path/to/source_models/model.config,target=/models/model.config -t --name ner tensorflow/serving --model_config_file=/models/model.config
热更新
如果想上线新模型,只需要修改模型配置文件,然后同时把新模型的模型文件放到对应路径下就可以
参考
- https://www.cnblogs.com/aidenzdly/p/10455917.html tensorflow_serving 安装方法
- https://www.jianshu.com/p/d11a5c3dc757 tensorflow_serving 更完整说明
- https://zhuanlan.zhihu.com/p/52096200?utm_source=wechat_session tensorflow_serving 更完整示例
- https://segmentfault.com/a/1190000016659530 美团实践经验(2018,信息量略大)