Python实现简易局域网视频聊天工具

Python实现简易局域网视频聊天工具

ICanDo_It 2016-11-15 18:27:25 6571 收藏 8
分类专栏: Linux基础 文章标签: 算法
版权

     基于实验楼限免课程:

Python实现简易局域网视频聊天工具

     试验操作系统为Ubuntu14.04,OpenCV版本为2.4.13.1,源代码可以在https://github.com/Forec/lan-ichat上获取。软件初衷是为了在IPV6协议网络中节省聊天流量。

     内容简介:

               1.实现简易视频通信工具,并能实现语音通话 2.通信质量 ,如画质、停顿等参数可以调节  3.支持IPV6

     知识点:

               1.Python基于Opencv对摄像头信息的捕获和压缩

               2.Python关于线程和socket通信的基础技巧(数据的压缩处理为重点)

               3.Python基于Pyaudio对语音信息的捕获和压缩

期间遇到的问题:

     1.执行wgethttps://labfile.oss.aliyuncs.com/courses/672/2.4.13-binary.tar.gz操作时,遇到证书问题

     2.进入到python后回不去了(小白笨笨哒),http://blog.csdn.net/langzi7758521/article/details/51163009在这里找到了解法

即quit()/exit()/ctrl+d退出。。之前一直尝试cd …/cd ~无果

     3.import cv2时出现问题:failed to initialize libdc1394,百度后http://stackoverflow.com/questions/12689304/ctypes-error-libdc1394-error-failed-to-initialize-libdc1394中找到解法。

     4.最后仍是无法查看CV2的版本,原因是无法打出更长的下划线。。无语无奈

无法下载链接中的文件,于是通过实验楼中的火狐浏览器直接下载后,复制到Opencv文件夹下,进行下一步操作成功。

过程理解:

     1.更新实验楼中一些基本库

     2.新建OpenCV文件夹,下载作者已编译好的包,完成环境配置的准备工作

Python实现简易局域网视频聊天工具

一、课程介绍

1.课程来源

课程使用的操作系统为 Ubuntu 14.04,OpenCV版本为OpenCV 2.4.13.1,你可以在这里查看该版本 OpenCV 的文档。

你可以在我的 Github 上找到 Windows 系统和 Linux 系统对应的源代码,此教程对应的版本是 v0.2。目前我正在开发的版本是 v0.3,新版本将允许使用不同IP协议的主机通信,并且范围不再局限于局域网内。这个工具最初是为了通过IPv6节省聊天工具使用的流量而开发的。

2.内容简介

课程实验实现简易的视频通信工具
在视频通信的基础上加入语音
用户可以选择通信的质量,即画质、停顿等参数
支持IPv6

3.课程知识点

本课程项目完成过程中将学习:

Python 基于 OpenCV 对摄像头信息的捕获和压缩
Python 关于 线程 和 socket 通信的一些基础技巧
Python 基于 PyAudio 对语音信息的捕获和压缩

其中将重点介绍 socket 传输过程中对数据的压缩和处理。

二、实验环境

本实验需要先在实验平台安装 OpenCV ,需下载依赖的库、源代码并编译安装。安装过程建议按照教程给出的步骤,或者你可以参考官方文档中 Linux 环境下的安装步骤,但 有些选项需要变更。安装过程所需时间会比较长,这期间你可以先阅读接下来的教程,在大致了解代码原理后再亲自编写尝试。
我提供了一个编译好的2.4.13-binary.tar.gz包,你可以通过下面的命令下载并安装,节省了编译的时间,但仍需要安装依赖库的过程,整个环境配置过程大约20~30分钟,根据当前机器速度决定。

· $ sudo apt-get update

· $ sudo apt-get install build-essentiallibgtk2.0-dev libjpeg-dev libtiff5-dev libjasper-dev libopenexr-dev cmakepython-dev python-numpy python-tk libtbb-dev libeigen2-dev yasm libfaac-devlibopencore-amrnb-dev libopencore-amrwb-dev libtheora-dev libvorbis-devlibxvidcore-dev libx264-dev libqt4-dev libqt4-opengl-dev sphinx-commontexlive-latex-extra libv4l-dev libdc1394-22-dev libavcodec-dev libavformat-devlibswscale-dev python-pyaudio

· $ cd ~

· $ mkdir OpenCV && cd OpenCV

· $ wgethttps://labfile.oss.aliyuncs.com/courses/672/2.4.13-binary.tar.gz

· $ tar -zxvf 2.4.13-binary.tar.gz

· $ cdopencv-2.4.13

· $ cd build

· $ sudo make install

如果你想体验编译的整个过程,我也提供了一个一键安装的脚本文件,你可以通过下面的命令尝试。这个过程会非常漫长,期间可能还需要你做一定的交互确认工作。

· $ cd ~

· $ sudo apt-get update

· $ wgethttps://labfile.oss.aliyuncs.com/courses/672/opencv.sh

· $ sudo chmod 777 opencv.sh

· $ ./opencv.sh

如果你觉得有必要亲自尝试一下安装的每一步,可以按照下面的命令逐条输入执行,在实验楼的环境中大概需要两个小时。

· $ sudo apt-get update

· $ sudo apt-get install build-essentiallibgtk2.0-dev libjpeg-dev libtiff5-dev libjasper-dev libopenexr-dev cmakepython-dev python-numpy python-tk libtbb-dev libeigen2-dev yasm libfaac-devlibopencore-amrnb-dev libopencore-amrwb-dev libtheora-dev libvorbis-dev libxvidcore-devlibx264-dev libqt4-dev libqt4-opengl-dev sphinx-common texlive-latex-extralibv4l-dev libdc1394-22-dev libavcodec-dev libavformat-dev libswscale-devpython-pyaudio

· $ wgethttps://github.com/Itseez/opencv/archive/2.4.13.zip

· $ unzip 2.4.13.zip

· $ cd 2.4.13

· $ mkdir release && cd release

· $ cmake -D WITH_TBB=ON -DBUILD_NEW_PYTHON_SUPPORT=ON -D WITH_V4L=ON -D INSTALL_C_EXAMPLES=ON -DINSTALL_PYTHON_EXAMPLES=ON -D BUILD_EXAMPLES=ON -D WITH_QT=ON -D WITH_GTK=ON -DWITH_OPENGL=ON …

· $ sudo make

· $ sudo make install

· $ sudo gedit/etc/ld.so.conf.d/opencv.conf

· $ 输入 /usr/local/lib,按 Ctrl + X 退出,退出时询问是否保存,按 Y 确认。

· $ sudo ldconfig -v

· $ sudo gedit /etc/bash.bashrc

· $ 在文件末尾加入

· $ PKG_CONFIG_PATH=$PKG_CONFIG_PATH:/usr/local/lib/pkgconfig

· export PKG_CONFIG_PATH

· 按 Ctrl + X 退出,按 Y 确认保存。

检验配置是否成功。

· $ python

· >>> import cv2

· >>> cv2.version

· ‘2.4.13’

三、实验原理

实验实现了简易的视频通信工具,基于 OpenCV 和 PyAudio,使用 TCP 协议通信,通信双方建立双向 CS 连接,双方均维护一个客户端和一个服务器端。在捕获视频信息后,根据用户指定的参数对画面做压缩并传输。

四、实验步骤

通过以下命令可下载项目源码,作为参照对比完成下面详细步骤的学习。

wgethttps://labfile.oss.aliyuncs.com/courses/672/ichat.zip

unzip ichat.zip

1.实现双向 C/S 连接

先为双方的通信设计 Server 类和 Client类,两个类均继承threading.Thread,只需要分别实现 init、__del__和run方法,之后对象调用.start()方法即可在独立线程中执行run方法中的内容。首先Client类需要存储远端的IP地址和端口,而Server类需要存储本地服务器监听的端口号。用户还应当可以指定通信双方使用的协议版本,即基于IPv4 还是IPv6 的TCP连接。因此Server类的初始化需要传入两个参数(端口、版本),Client类的初始化需要三个参数(远端IP、端口、版本)。新建文件vchat.py,在其中定义基础的两个类如下。

from socket import *

import threading

classVideo_Server(threading.Thread):

def__init__(self, port, version) :

    threading.Thread.__init__(self)

    self.setDaemon(True)

    self.ADDR = ('', port)

    if version == 4:

        self.sock = socket(AF_INET,SOCK_STREAM)

    else:

        self.sock = socket(AF_INET6,SOCK_STREAM)

def__del__(self):

    self.sock.close()

    # TODO

defrun(self):

    print("server starts...")

    self.sock.bind(self.ADDR)

    self.sock.listen(1)

    conn, addr = self.sock.accept()

    print("remote client success connected...")

    # TODO

classVideo_Client(threading.Thread):

def__init__(self ,ip, port, version):

    threading.Thread.__init__(self)

    self.setDaemon(True)

    self.ADDR = (ip, port)

    if version == 4:

        self.sock = socket(AF_INET,SOCK_STREAM)

    else:

        self.sock = socket(AF_INET6,SOCK_STREAM)

def__del__(self) :

    self.sock.close()

    # TODO

defrun(self):

    print("client starts...")

    whileTrue:

        try:

            self.sock.connect(self.ADDR)

            break

        except:

            time.sleep(3)

            continue

    print("client connected...")

    # TODO

2.实现摄像头数据流捕获

OpenCV 为Python 提供的接口非常简单并且易于理解。捕获视频流的任务应当由Client类完成,下面完善Client的run函数。在下面的代码中,我们为类添加了一个成员变量cap,它用来捕获默认摄像头的输出。

classVideo_Client(threading.Thread):

def__init__(self ,ip, port, version):

    threading.Thread.__init__(self)

    self.setDaemon(True)

    self.ADDR = (ip, port)

    if version == 4:

        self.sock = socket(AF_INET,SOCK_STREAM)

    else:

        self.sock = socket(AF_INET6,SOCK_STREAM)

    self.cap = cv2.VideoCapture(0)

def__del__(self) :

    self.sock.close()

    self.cap.release()

defrun(self):

    print("client starts...")

    whileTrue:

        try:

            self.sock.connect(self.ADDR)

            break

        except:

            time.sleep(3)

            continue

    print("client connected...")

    whileself.cap.isOpened():

        ret, frame = self.cap.read()

    # TODO

3.发送捕获到的数据到服务器

已经捕获到数据,接下来要发送字节流。首先我们继续编写Client,为其添加发送数据功能的实现。这里只改动了run方法。在捕获到帧后,我们使用pickle.dumps方法对其打包,并用sock.sendall方法发送。注意发送过程中我们用struct.pack方法为每批数据加了一个头,用于接收方确认接受数据的长度。

defrun(self):

    whileTrue:

        try:

            self.sock.connect(self.ADDR)

            break

        except:

            time.sleep(3)

            continue

    print("client connected...")

    whileself.cap.isOpened():

        ret, frame = self.cap.read()

        data = pickle.dumps(frame)

        try:

            self.sock.sendall(struct.pack("L", len(data))+ data)

        except:

            break

下面编写Server,在服务器端连接成功后,应当创建一个窗口用于显示接收到的视频。因为连接不一定创建成功,因此cv.destroyAllWindows()被放在一个try…catch块中防止出现错误。在接收数据过程中,我们使用payload_size记录当前从缓冲区读入的数据长度,这个长度通过struct.calcsize(‘L’)来读取。使用该变量的意义在于缓冲区中读出的数据可能不足一个帧,也可能由多个帧构成。为了准确提取每一帧,我们用payload_size区分帧的边界。在从缓冲区读出的数据流长度超过payload_size时,剩余部分和下一次读出的数据流合并,不足payload_size时将合并下一次读取的数据流到当前帧中。在接收完完整的一帧后,显示在创建的窗口中。同时我们为窗口创建一个键盘响应,当按下Esc 或 q键时退出程序。

classVideo_Server(threading.Thread):

def__init__(self, port, version) :

    threading.Thread.__init__(self)

    self.setDaemon(True)

    self.ADDR = ('', port)

    if version == 4:

        self.sock = socket(AF_INET,SOCK_STREAM)

    else:

        self.sock = socket(AF_INET6,SOCK_STREAM)

def__del__(self):

    self.sock.close()

    try:

        cv2.destroyAllWindows()

    except:

        pass

defrun(self):

    print("server starts...")

    self.sock.bind(self.ADDR)

    self.sock.listen(1)

    conn, addr = self.sock.accept()

    print("remote client successconnected...")

    data = "".encode("utf-8")

    payload_size = struct.calcsize("L")

    cv2.namedWindow('Remote', cv2.WINDOW_NORMAL)

    whileTrue:

        while len(data)< payload_size:

            data += conn.recv(81920)

        packed_size = data[:payload_size]

        data = data[payload_size:]

        msg_size = struct.unpack("L", packed_size)[0]

        while len(data)< msg_size:

            data += conn.recv(81920)

        zframe_data = data[:msg_size]

        data = data[msg_size:]

        frame_data =zlib.decompress(zframe_data)

        frame = pickle.loads(frame_data)

        cv2.imshow('Remote', frame)

        if cv2.waitKey(1) & 0xFF == 27:

            break

4.视频缩放和数据压缩

现在的服务器和客户端已经可以运行,你可以在代码中创建一个Client类实例和一个Server类实例,并将IP地址设为127.0.0.1,端口设为任意合法的(0-65535)且不冲突的值,版本设为IPv4。执行代码等同于自己和自己通信。如果网络状况不好,你也许会发现自己和自己的通信也有卡顿现象。为了使画面质量、延迟能够和现实网络状况相匹配,我们需要允许用户指定通信中画面的质量,同时我们的代码应当本身具有压缩数据的能力,以尽可能利用带宽。

当用户指定使用低画质通信,我们应当对原始数据做变换,最简单的方式即将捕获的每一帧按比例缩放,同时降低传输的帧速,在代码中体现为resize,该函数的第二个参数为缩放中心,后两个参数为缩放比例,并且根据用户指定的等级,不再传输捕获的每一帧,而是间隔几帧传输一帧。为了防止用户指定的画质过差,代码中限制了最坏情况下的缩放比例为0.3,最大帧间隔为3。此外,我们在发送每一帧的数据前使用zlib.compress对其压缩,尽量降低带宽负担。

classVideo_Client(threading.Thread):

def__init__(self ,ip, port, level, version):

    threading.Thread.__init__(self)

    self.setDaemon(True)

    self.ADDR = (ip, port)

    if level <= 3:

        self.interval = level

    else:

        self.interval = 3

    self.fx = 1 /(self.interval + 1)

    if self.fx <0.3:

        self.fx = 0.3

    if version == 4:

        self.sock = socket(AF_INET,SOCK_STREAM)

    else:

        self.sock = socket(AF_INET6,SOCK_STREAM)

    self.cap = cv2.VideoCapture(0)

def__del__(self) :

    self.sock.close()

    self.cap.release()

defrun(self):

    print("VEDIO client starts...")

    whileTrue:

        try:

            self.sock.connect(self.ADDR)

            break

        except:

            time.sleep(3)

            continue

    print("VEDIO client connected...")

    whileself.cap.isOpened():

        ret, frame = self.cap.read()

        sframe = cv2.resize(frame, (0,0),fx=self.fx, fy=self.fx)

        data = pickle.dumps(sframe)

        zdata = zlib.compress(data,zlib.Z_BEST_COMPRESSION)

        try:

            self.sock.sendall(struct.pack("L", len(zdata))+ zdata)

        except:

            break

        for i inrange(self.interval):

            self.cap.read()

服务器端最终代码如下,增加了对接收到数据的解压缩处理。

classVideo_Server(threading.Thread):

def__init__(self, port, version) :

    threading.Thread.__init__(self)

    self.setDaemon(True)

    self.ADDR = ('', port)

    if version == 4:

        self.sock = socket(AF_INET,SOCK_STREAM)

    else:

        self.sock = socket(AF_INET6,SOCK_STREAM)

def__del__(self):

    self.sock.close()

    try:

        cv2.destroyAllWindows()

    except:

        pass

defrun(self):

    print("VEDIO server starts...")

    self.sock.bind(self.ADDR)

    self.sock.listen(1)

    conn, addr = self.sock.accept()

    print("remote VEDIO client successconnected...")

    data = "".encode("utf-8")

    payload_size = struct.calcsize("L")

    cv2.namedWindow('Remote',cv2.WINDOW_NORMAL)

    whileTrue:

        while len(data)< payload_size:

            data += conn.recv(81920)

        packed_size = data[:payload_size]

        data = data[payload_size:]

        msg_size = struct.unpack("L",packed_size)[0]

        while len(data)< msg_size:

            data += conn.recv(81920)

        zframe_data = data[:msg_size]

        data = data[msg_size:]

        frame_data =zlib.decompress(zframe_data)

        frame = pickle.loads(frame_data)

        cv2.imshow('Remote', frame)

        if cv2.waitKey(1) & 0xFF == 27:

            break

5.加入音频的捕获和传输

在完成视频通信的基础上,整体框架对于音频通信可以直接挪用,只需要修改其中捕获视频/音频的代码和服务器解码播放的部分。这里我们使用 PyAudio 库处理音频,在 Linux 下你也可以选择 sounddevice。关于sounddevice这里不做过多介绍,你可以在这里看到它最新版本的文档。将vchat.py复制一份,重命名为achat.py,简单修改几处,最终音频捕获、传输的完整代码如下。我将上面代码中的Server和Client分别加上Video和Audio前缀以区分,同时显示给用户的print输出语句也做了一定修改,对于视频加上VIDEO前缀,音频加上AUDIO前缀。如果你对代码中使用到的 PyAudio 提供的库函数有所疑问,可以在这里找到相关的入门文档及示例。

classAudio_Server(threading.Thread):

def__init__(self, port, version) :

    threading.Thread.__init__(self)

    self.setDaemon(True)

    self.ADDR = ('', port)

    if version == 4:

        self.sock = socket(AF_INET,SOCK_STREAM)

    else:

        self.sock = socket(AF_INET6,SOCK_STREAM)

    self.p = pyaudio.PyAudio()

    self.stream = None

def__del__(self):

    self.sock.close()

    if self.stream isnotNone:

        self.stream.stop_stream()

        self.stream.close()

    self.p.terminate()

defrun(self):

    print("AUDIO server starts...")

    self.sock.bind(self.ADDR)

    self.sock.listen(1)

    conn, addr = self.sock.accept()

    print("remote AUDIO client success connected...")

    data = "".encode("utf-8")

    payload_size = struct.calcsize("L")

    self.stream =self.p.open(format=FORMAT,

                             channels=CHANNELS,

                              rate=RATE,

                              output=True,

                             frames_per_buffer = CHUNK

                              )

    whileTrue:

        while len(data)< payload_size:

            data += conn.recv(81920)

        packed_size = data[:payload_size]

        data = data[payload_size:]

        msg_size = struct.unpack("L",packed_size)[0]

        while len(data)< msg_size:

            data += conn.recv(81920)

        frame_data = data[:msg_size]

        data = data[msg_size:]

        frames = pickle.loads(frame_data)

        for frame in frames:

            self.stream.write(frame, CHUNK)

classAudio_Client(threading.Thread):

def__init__(self ,ip, port, version):

    threading.Thread.__init__(self)

    self.setDaemon(True)

    self.ADDR = (ip, port)

    if version == 4:

        self.sock = socket(AF_INET,SOCK_STREAM)

    else:

        self.sock = socket(AF_INET6,SOCK_STREAM)

    self.p = pyaudio.PyAudio()

    self.stream = None

def__del__(self) :

    self.sock.close()

    if self.stream isnotNone:

        self.stream.stop_stream()

        self.stream.close()

    self.p.terminate()

defrun(self):

   print("AUDIO client starts...")

    whileTrue:

        try:

            self.sock.connect(self.ADDR)

            break

        except:

            time.sleep(3)

            continue

    print("AUDIO client connected...")

    self.stream =self.p.open(format=FORMAT,

                         channels=CHANNELS,

                         rate=RATE,

                         input=True,

                        frames_per_buffer=CHUNK)

    whileself.stream.is_active():

        frames = []

        for i in range(0, int(RATE /CHUNK * RECORD_SECONDS)):

            data = self.stream.read(CHUNK)

            frames.append(data)

        senddata = pickle.dumps(frames)

       try:

            self.sock.sendall(struct.pack("L",len(senddata)) + senddata)

        except:

            break

6.编写程序入口 main.py

为了提供用户参数解析,代码使用了argparse。你可能对此前几个类中初始化方法的self.setDaemon(True)有疑惑。这个方法的调用使每个线程在主线程结束之后自动退出,保证程序不会出现崩溃且无法销毁的情况。在main.py中,我们通过每隔1s做一次线程的保活检查,如果视频/音频中出现阻塞/故障,主线程会终止。

import sys

import time

import argparse

from vchat importVideo_Server, Video_Client

from achat importAudio_Server, Audio_Client

parser = argparse.ArgumentParser()

parser.add_argument(’–host’, type=str,default=‘127.0.0.1’)

parser.add_argument(’–port’, type=int,default=10087)

parser.add_argument(’–level’, type=int,default=1)

parser.add_argument(’-v’, ‘–version’, type=int,default=4)

args = parser.parse_args()

IP = args.host

PORT = args.port

VERSION = args.version

LEVEL = args.level

if name == ‘main’:

vclient = Video_Client(IP, PORT, LEVEL, VERSION)

vserver = Video_Server(PORT, VERSION)

aclient = Audio_Client(IP, PORT+1, VERSION)

aserver = Audio_Server(PORT+1, VERSION)

vclient.start()

aclient.start()

time.sleep(1) # make delay to start server

vserver.start()

aserver.start()

whileTrue:

    time.sleep(1)

    ifnotvserver.isAlive() ornotvclient.isAlive():

        print("Video connection lost...")

        sys.exit(0)

    ifnotaserver.isAlive() ornotaclient.isAlive():

        print("Audio connection lost...")

        sys.exit(0)

7.运行情况

因为实验楼的环境没有提供摄像头,因此我们需要修改一下代码,让程序从一个本地视频文件读取,模拟摄像头的访问。将Video_Client中self.cap =cv2.VideoCapture(0)改为self.cap =cv2.VideoCapture(‘test.mp4’),即从本地视频test.mp4中读取。在修改完你的代码后,你可以通过以下命令下载test.mp4(该视频文件是周杰伦《浪漫手机》的MV),并检验代码。

$ wgethttp://labfile.oss.aliyuncs.com/courses/671/test.mp4

$ python2 main.py

和上面命令一样,在本机可以通过 python2 main.py 来实验本机和本机的视频聊天,如果你有条件在同一局域网内的两台机器上实验,则可以将程序部署在两台机器上,并相互连接观察效果。下面两张图为本机上实验截图,有些情况下 PyAudio 可能会提示一些警告,你可以忽视它的提示。用户也可以指定level参数,level越高,画质越差,level为0 为原始画面,在我们的main.py中默认level为1。

通过在某高校校园网内验证,程序可以保证长时间顺畅通话,偶尔会出现网络质量较差导致的短暂卡顿,不影响实际视频通话效果。

五、代码获取

你可以在我的 Github仓库 中获取到完整的代码,里面提供了Windows 版本和 Linux版本的配置、运行方案。如果你有建议或想法,欢迎提 PR 沟通。

你可能感兴趣的:(python,windows)