h2o steam

steam工具主要包括两个功能

  • war的生成
  • 服务的管理

war的生成

h2o主要是java 开发,最终的模型文件也是一个java文件,所以模型上线的方式是以服务的方式.可以部署在tomcat,jetty等容器中.
当然模型的java文件也可以嵌入到自己的项目中,实现stream方式的线上打分.比如放到flink或者storm中.

  • war的生成需要启动另外一个服务(打包服务),在下载的文件中有一个ROOT.war的文件.这个打包的war部署在容器中,默认端口是55000,服务界面如下,注意到左侧是可以上传预处理逻辑的python文件或者java文件.右侧中的pojo文件和h2o jar,是必须的,pojo是你离线训练的模型.h2o jar 中在你官网下载的文件包中就存在的.


    h2o steam_第1张图片
    image.png
  • 以为一种就是不使用web界面,而是命令行的方式.需要的参数和web界面上看到的一样.
curl -X POST \
--form pojo=@gbm_cf6fdeef_cad1_4e85_b644_6358166076ca.java \
--form jar=@lib/h2o-genmodel.jar \
--form [email protected] \
--form preclass=PreProcess \
localhost:55000/makewar > example.war

服务的管理

由于协议问题,服务稳定性问题等等,建议不使用steam的服务管理.通过编写docker file 完成自动的docker 容器部署方式实现ha ,负载等

问题

生成的war包没有日志的输出,每次需要自己将log4j配置进去.通过看源码增加上了日志的输出.
1,git clone https://github.com/h2oai/steam
2,cd prediction-service-builder
3,增加 log4j.jar 和 slf4j-log4j12.jar到lib文件夹中,如下图
4,在WEB-INF中增加log4j.property的配置文件

h2o steam_第2张图片
image.png

5,./gradlew build 打包生成ROOT.war文件.

总结

使用起来比较方便,通过HttpServlet的方式将模型发布成restful 接口的形式.将预处理逻辑和模型巧妙的结合在一起.提供一个完整的在线打分模式.
使用python做预处理的使用,由于是python进程和jvm进程两个进程,需要过多的socket通信(服务启动后,会通过ProcessBuilder 新建一个python的子进程.),对于时效性要求比较高的场景,直接使用java做预处理比较好.

你可能感兴趣的:(h2o steam)