Flink实时流计算中,如何融入tensorflow

Flink实时流计算中,如何融入tensorflow_第1张图片

from keras.models import Sequential, load_model
import numpy

model = load_model('xxx.h5')
model.compile(loss = 'binary_crossentropy', optimizer = 'adam', metrics = ['accuracy'])
model._make_predict_function()

def handle(conn):
     while True:
        data = conn.recv(1024)
        res = XXX(data)  #对即受到的数据进行处理
        result = model.predict(res)[0][0]
        conn.send(bytes(str(result) + "\n", encoding = "utf-8"))

看到这段代码。大家可能已经知道我的方法了。

 

搭建一个tcp socket Server。用来调用tf加载模型处理数据。

 

Flink中怎么写呢?

很简单。

 #Scala代码

      val host = "xxxx"
      val port = xxx
      val sock = new Socket(host, port)
      val is = new BufferedReader(new InputStreamReader(sock.getInputStream()))
      val os = new PrintStream(sock.getOutputStream())

  def sendDataToTf(data: String): String = { 
      os.println(data)
      val res = is.readLine()
      res
  }

通过使用外挂的方式,让Flink框架可以使用tensorflow机器学习训练出的模型。

 

实测延时很低,满足生产需求。当然生产中需要在server段做好负载均衡,以防单点故障。

 

你可能感兴趣的:(Flink实时流计算中,如何融入tensorflow)