在不同进程或者不同语言间传递摄像头图片数据,比如从java实现的代码中获取摄像头画面数据,将其传递给python实现的算法代码中进行处理。这里,提供基于http方式和基于redis方式这两种方式进行实现,并比较两者传输速度。
作为样例,代码均采用python实现,运行环境为ubuntu 18.04。
思路:创建两个线程,一个线程利用Opencv通过rtsp地址获得摄像头画面,一个线程将摄像头图片数据转为字节流,并通过http方式发送。
实现
#coding=gb2312
# 文件名:http_send.py
import requests
import base64
import cv2
import time
import threading
from queue import LifoQueue
class rtspRead: # rtsp地址读取
def __init__(self, rtsp, port):
self.rtsp = rtsp # 摄像头的rtsp地址
self.addr = "http://127.0.0.1:{}/image_post".format(port) # 本地http传输地址
self.frameQueue = LifoQueue() # 视频帧的队列
self.frameLock = threading.Lock() # 视频帧队列的锁
self.threadFlag = True #
def start(self): # 开始
t1 = threading.Thread(target=self.sendFrame, args=(), daemon=True)
t2 = threading.Thread(target=self.readFrame, args=(), daemon=True)
t1.start()
t2.start()
t1.join()
t2.join()
def sendFrame(self): # 通过http发送图片
num = 0 # 计算100次图片发送到接受的平均时间,以及平均帧数
while self.threadFlag:
time.sleep(0.01)
is_get_frame = False # 没有从队列中获得图片
self.frameLock.acquire()
if self.frameQueue.qsize():
frame = self.frameQueue.get()
is_get_frame = True # 从队列中获得图片
self.frameLock.release()
if is_get_frame:
# frame 是ndarray对象,这里是把原始ndarray转成jpg的字节流,转成其它格式直接替换jpg即可
img_str = cv2.imencode('.jpg', frame)[1].tobytes()
#使用b64encode对bytes-like类型对象进行编码(加密)并返回bytes对象
img_data = base64.b64encode(img_str)
data = {'img': img_data}
resp = requests.post(self.addr, data=data) # 发送图片数据,并获得http_receive.py的返回信息
print("结果:", resp.text)
def readFrame(self): # 通过rtsp读取图片
self.cap = cv2.VideoCapture(self.rtsp)
if self.cap.isOpened():
time.sleep(0.01)
print("成功获得句柄!")
while self.threadFlag:
ret, frame = self.cap.read()
if ret:
self.frameLock.acquire()
while self.frameQueue.qsize() > 3: # 尽量确保队列中为最新的图片帧
self.frameQueue.get()
self.frameQueue.put(frame)
self.frameLock.release()
else:
print("句柄获得失败!")
self.threadFlag = False
self.cap.release()
if __name__ == '__main__':
rtsp_read = rtspRead("rtsp://xx:xx@xx", 9322)
rtsp_read.start()
思路:通过flask框架接收http请求,并将接收到的图片数据的字节流转为np格式,并进一步转为opencv格式。另起一个线程,接收opencv格式的图片数据,并做显示。
实现
#coding=gb2312
# 文件名:http_receive.py
from flask import Flask, request
import base64
import numpy as np
import cv2
import threading
from queue import LifoQueue
import time
class RtspPlay():
def __init__(self):
self.frame = None # 视频帧
self.threadFlag = True #
def start(self): # 开始
t1 = threading.Thread(target=self.play, args=(), daemon=True)
t1.start()
#t1.join()
def play(self):
starttime = time.time()
while self.threadFlag:
time.sleep(0.01)
print("进入展示线程")
if time.time() - starttime > 260:
self.threadFlag = False
if self.frame is not None:
print("展示frame")
cv2.imshow('http_pic', self.frame)
if cv2.waitKey(1) & 0xFF == ord('q'):
break
cv2.destroyAllWindows()
def setFrame(self, img):
print("更新frame")
self.frame = img.copy()
rtspPlay = RtspPlay()
rtspPlay.start()
app = Flask(__name__)
@app.route('/image_post', methods=['POST'])
def img_post():
if request.method == 'POST':
# 获取图片数据
img_base64 = request.form.get('img')
# 把图片的二进制进行转化
img_data = base64.b64decode(img_base64) #将拿到的base64的图片转换回来
img_array = np.fromstring(img_data,np.uint8) # 转换np序列
img = cv2.imdecode(img_array,cv2.COLOR_BGR2RGB) # 转换Opencv格式
mat = cv2.resize(img, (600, 600))
print(mat.shape)
rtspPlay.setFrame(mat)
time.sleep(0.01)
return 'receive img sucess'
if __name__ == "__main__":
app.run(host="127.0.0.1", port=9322)
# 先开一个terminal窗口,启用接收进程
python http_receive.py
# 再开一个terminal窗口,启用发送进程
python http_send.py
思路:创建两个线程,一个线程利用Opencv通过rtsp地址获得摄像头画面,一个线程将摄像头图片数据转为字节流,并通过redis方式发送。这里的redis方式具体指的是,redis是一个内存数据库,通过键值对存储数据,通过订阅/发布机制传递消息,所以将图片字节流数据存入redis中,并将存入消息发布出去,实现发送效果。
实现
#coding=gb2312
# 文件名:redis_send.py
import redis
import cv2
import time
import base64
import threading
from queue import LifoQueue
class redisSendPic: # redis发布者
def __init__(self, cameraip):
print("redis init ...")
self.r = redis.Redis(host='127.0.0.1', port=6379,db=0) # 建立连接
self.topic = 'img0' # 订阅的主题
self.cameraip = cameraip
def send(self, img):
#print("发送图片")
img_str = cv2.imencode('.jpg', img)[1].tobytes()
data = base64.b64encode(img_str)
self.r.set(self.cameraip, data)
self.r.publish(self.topic, self.cameraip)
def getResult(self,):
result = self.r.get('result')
return result
def delete(self):
self.r.delete('result')
self.r.delete(self.cameraip)
class rtspRead: # rtsp地址读取
def __init__(self, rtsp, cameraip):
self.rtsp = rtsp
self.cameraip = cameraip
self.frameQueue = LifoQueue() # 视频帧的队列
self.frameLock = threading.Lock() # 视频帧队列的锁
self.threadFlag = True #
def start(self): # 开始
t1 = threading.Thread(target=self.sendFrame, args=(), daemon=True)
t2 = threading.Thread(target=self.readFrame, args=(), daemon=True)
t1.start()
t2.start()
t1.join()
t2.join()
def sendFrame(self): # 通过redis发送图片
self.sendpic = redisSendPic(self.cameraip)
self.sendpic.r.set('result', 'start')
num = 0 # 计算100次图片发送到接受的平均时间,以及平均帧数
total_time = 0
while self.threadFlag:
time.sleep(0.01)
is_get_frame = False # 没有从队列中获得图片
self.frameLock.acquire()
if self.frameQueue.qsize():
frame = self.frameQueue.get()
is_get_frame = True # 从队列中获得图片
self.frameLock.release()
result = self.sendpic.getResult() # 从接受进程获得是否中止的信号
if result is not None and str(result, 'utf-8') == 'stop':
self.threadFlag = False
break
if is_get_frame:
self.sendpic.r.delete('receive_time') # 删除接受时间
send_time = time.time() # 发送时间
self.sendpic.send(frame) # 发送图片
receive_time = self.sendpic.r.get('receive_time') # 获得接受图片时间
while receive_time is None: # 等待接受图片
#print("等待接受")
time.sleep(0.01)
receive_time = self.sendpic.r.get('receive_time')
result = self.sendpic.getResult() # 从接受进程获得是否中止的信号
if result is not None and str(result, 'utf-8') == 'stop':
self.threadFlag = False
break
if receive_time is not None:
total_time += float(str(receive_time, 'utf-8')) - send_time
#print("图像发送到接受时间:", float(str(receive_time, 'utf-8')) - send_time)
num += 1
if num > 100:
print("发送收发100次,平均耗时{}s,平均速度为{}帧/秒".format(total_time/100, round(100/total_time,2)))
num = 0
total_time = 0
self.sendpic.delete()
def readFrame(self): # 通过rtsp读取图片
self.cap = cv2.VideoCapture(self.rtsp)
if self.cap.isOpened():
time.sleep(0.01)
print("成功获得句柄!")
while self.threadFlag:
ret, frame = self.cap.read()
if ret:
self.frameLock.acquire()
while self.frameQueue.qsize() > 3: # 尽量确保队列中为最新的图片帧
self.frameQueue.get()
self.frameQueue.put(frame)
self.frameLock.release()
else:
print("句柄获得失败!")
self.threadFlag = False
self.cap.release()
if __name__ == '__main__':
rtsp_read = rtspRead("rtsp://xx:xx@xx", 'xx')
rtsp_read.start()
思路:通过redis数据库的消息监听机制,当接收到数据入库消息,则提取图片字节流数据,并将其处理为opencv格式的图片数据,从而做到显示。
实现
#coding=utf-8
# 文件名:redis_receive.py
import redis
import time
import scipy.misc
import cv2
import base64
from PIL import Image
import io
import time
import scipy.misc
import numpy as np
r = redis.Redis(host='127.0.0.1',port=6379,db=0)
ps = r.pubsub()
charecter = "img"
ps.subscribe(charecter + str(0))
is_first = True
for item in ps.listen():
print("get message, ", item)
#r.set("result", str("ok"))
if is_first:
r.set('receive_time', str(time.time())) # 获得可处理图片时间
is_first = False
start = time.time()
if item['type'] == 'message' and item['data'] is not None:
img_base64 = r.get(str(item['data'], 'utf-8'))
img_data = base64.b64decode(img_base64) #将拿到的base64的图片转换回来
img_array = np.fromstring(img_data,np.uint8) # 转换np序列
img = cv2.imdecode(img_array,cv2.COLOR_BGR2RGB) # 转换Opencv格式
r.set('receive_time', str(time.time())) # 获得可处理图片时间
mat = cv2.resize(img, (600, 600))
print(mat.shape)
cv2.imshow('redis_pic', mat)
if cv2.waitKey(1) & 0xFF == ord('q'):
break
#scipy.misc.imsave('D:/video.png', img)
# frame = cv2.resize(img_data, (0, 0), fx=0.5, fy=0.5)
#r.delete(charecter + str(0))
#r.set("result", str("ok"))
print("cost time:", time.time() - start)
cv2.destroyAllWindows()
r.set("result", str("stop"))
# 先开一个terminal窗口,启用接收进程
python redis_receive.py
# 再开一个terminal窗口,启用发送进程
python redis_send.py
结束进程直接在显示窗口上按下q键即可。
综合来看,在可视化摄像头画面的前提下,两者均可做到实时显示。其中,采用redis方式速度为14帧/秒左右,采用http方式速度为10帧/秒左右。
若要提高速度,可取消base64的加密过程;若仅考虑传输,可取消其中的可视化部分,传输速度应该会进一步提高。