使用腾讯云不像阿里云那么傻瓜式,需要额外配置用户密钥连接啥的。为了便于使用,这里改为密码方式连接,配置步骤如下:
进入服务器后,输入:
sudo vim /etc/ssh/sshd_config
打开配置页面,定位到:
#Authentication:
#LoginGraceTime 120
#PermitRootLogin without passwd #去掉这里的注释
#StrictModes yes
改为
#Authentication:
#LoginGraceTime 120
PermitRootLogin yes #这行改一改,也要去掉‘#’,如果直接就是yes直接去掉注释
#StrictModes yes
最后服务器端重启ssh:
sudo service ssh restart
如果想保险的话,这边开启一下各种权限再重启ssh:
sudo chmod 700 .ssh
cd .ssh
sudo chmod 600 *
sudo service sshd restart
如果还是显示拒绝了密码,要好好检查一下用户名和密码是否错误,比如我这边虽然显示用户名为lighthouse
,实际上名字还是root
,因此需要使用'root'
作为用户名登录而非'lighthouse'
。所以用户名如果不是root
,改为root试试,毕竟登录的是root用户,就不要用其他用户名了。
事实上,我还发现一个问题,如果使用密码方式登录,貌似只能登录root用户,在Xshell中即使选择其他用户并且输入正确的密码也会报错:
ssh服务器拒绝密码,原因未知,希望懂行的大佬在评论区指点一下。
首先切换到root用户:
su root
赋予所有者sudo 写权限
chmod u+w /etc/sudoers
sudo vim /etc/sudoers
找到这行 root ALL=(ALL) ALL,在他下面添加xxx ALL=(ALL) ALL (这里的xxx是你的用户名):
为了保险的话,最后再撤销一下sudoers的写权限:
chmod u-w /etc/sudoers
这样就可以让普通用户geek
使用sudo命令了!
LiveGo
1.简单高效的直播服务器:
2.安装和使用非常简单;
3.纯 Golang 编写,性能高,跨平台;
4.支持常用的传输协议、文件格式、编码格式;
直接进入目录下,执行以下命令进行编译:
go build
执行以下命令运行liveGo:
make run
发现报错,说没有make工具:
安装windows下的make工具mingw32-make
:
https://sourceforge.net/projects/mingw/postdownload
安装完成:
添加环境变量MinGW\bin
。
cmd安装package:
mingw-get install mingw32-make
再次执行以下命令运行liveGo:
mingw32-make run
http://localhost:8090/control/get?room=movie
打开OBS,设置推流选项:
OBS自定义推流到livego的推流地址。推流服务器地址填入:
rtmp://localhost:1935/live
使用带拉流的视频播放器,如plotplayer
,填入拉取播放地址:
rtmp://localhost:1935/live/movie
打开plotplayer,填入URL,发现推流成功:
OBS上选择采集摄像头还是显示器,然后开始推流
:
运行以下命令,使用Yolov5进行推流:
python detect.py --source rtmp://localhost:1935/live/movie --view-img --weights weights/best.pt
ffmpeg -r 20 -f vfwcap -i 0 -vcodec h264 -max_delay 100 -f flv -g 5 -b 700000 rtmp://push.luoying.space/live/test
ffmpeg.exe -re -i yes.mp4 -f flv rtmp://push.luoying.space/live/test
ffmpeg -r 30 -i /dev/video0 -vcodec h264 -max_delay 100 -f flv -g 5 -b 700000 rtmp://push.luoying.space/live/test
ffmpeg -r 30 -i new.mp4 -vcodec h264 -max_delay 100 -f flv -g 5 -b 700000 rtmp://push.luoying.space/live/test
以上代码仅仅能在Linux中运行,windows上运行该代码会报关于管道的错误:
按照网上的说明修改了自带的subprocess.py里面__init__.py
的shell=False
改为 shell=True
后,发现运行还是报错,说明此条道路目前在windows上行不通。
代码段1:
import subprocess as sp
import cv2 as cv
rtmpUrl = "rtmp://push.luoying.space/live/test"
# camera_path = "Source_cress_corner.mp4"
camera_path = 0
cap = cv.VideoCapture(camera_path)
# Get video information
fps = int(cap.get(cv.CAP_PROP_FPS))
width = int(cap.get(cv.CAP_PROP_FRAME_WIDTH))
height = int(cap.get(cv.CAP_PROP_FRAME_HEIGHT))
# ffmpeg command
command = ['ffmpeg',
'-y',
'-f', 'rawvideo',
'-vcodec', 'rawvideo',
'-pix_fmt', 'bgr24',
'-s', "{}x{}".format(width, height),
'-r', str(fps),
'-i', '-',
'-c:v', 'libx264',
'-pix_fmt', 'yuv420p',
'-preset', 'ultrafast',
'-f', 'flv',
rtmpUrl]
# 管道配置
p = sp.Popen(command, stdin=sp.PIPE)
# read webcamera
while (cap.isOpened()):
ret, frame = cap.read()
if not ret:
print("Opening camera is failed")
break
# process frame
# your code
# process frame
# write to pipe
p.stdin.write(frame.tostring())
代码段2:
rtmpUrl = 'rtmp://39.107.26.100:1935/myapp/test1'
mycv = CvHelp()#我本身的opencv工具类,提供绘图识别工具
# 视频来源 地址须要替换本身的可识别文件地址
filePath='/mnt/e/nginx-rtmp/'
camera = cv2.VideoCapture(filePath+"test2.mp4") # 从文件读取视频
#这里的摄像头能够在树莓派3b上使用
# camera = cv2.VideoCapture(0) # 参数0表示第一个摄像头 摄像头读取视频
# if (camera.isOpened()):# 判断视频是否打开
# print 'Open camera'
# else:
# print 'Fail to open camera!'
# return
# camera.set(cv2.CAP_PROP_FRAME_WIDTH, 1280) # 2560x1920 2217x2217 2952×1944 1920x1080
# camera.set(cv2.CAP_PROP_FRAME_HEIGHT, 720)
# camera.set(cv2.CAP_PROP_FPS, 5)
# 视频属性
size = (int(camera.get(cv2.CAP_PROP_FRAME_WIDTH)), int(camera.get(cv2.CAP_PROP_FRAME_HEIGHT)))
sizeStr = str(size[0]) + 'x' + str(size[1])
fps = camera.get(cv2.CAP_PROP_FPS) # 30p/self
fps = int(fps)
hz = int(1000.0 / fps)
print 'size:'+ sizeStr + ' fps:' + str(fps) + ' hz:' + str(hz)
# 视频文件输出
fourcc = cv2.VideoWriter_fourcc(*'XVID')
out = cv2.VideoWriter(filePath+'res_mv.avi',fourcc, fps, size)
# 直播管道输出
# ffmpeg推送rtmp 重点 : 经过管道 共享数据的方式
command = ['ffmpeg',
'-y',
'-f', 'rawvideo',
'-vcodec','rawvideo',
'-pix_fmt', 'bgr24',
'-s', sizeStr,
'-r', str(fps),
'-i', '-',
'-c:v', 'libx264',
'-pix_fmt', 'yuv420p',
'-preset', 'ultrafast',
'-f', 'flv',
rtmpUrl]
#管道特性配置
# pipe = sp.Popen(command, stdout = sp.PIPE, bufsize=10**8)
pipe = sp.Popen(command, stdin=sp.PIPE) #,shell=False
# pipe.stdin.write(frame.tostring())
#业务数据计算
lineWidth = 1 + int((size[1]-400) / 400)# 400 1 800 2 1080 3
textSize = size[1] / 1000.0# 400 0.45
heightDeta = size[1] / 20 + 10# 400 20
count = 0
faces = []
while True:
###########################图片采集
count = count + 1
ret, frame = camera.read() # 逐帧采集视频流
if not ret:
break
if(count % fps == 0):#隔帧处理
###########################图片识别检测
# 探测图片中的人脸 延帧检测 很基本的通用性人脸检测 网上攻略一大把
faces = mycv.classfier.detectMultiScale(frame,scaleFactor=1.1,minNeighbors=5,minSize=(5,5))
pass
for (x, y, w, h) in faces:#绘制矩形框出人脸区域
pass
# cv2.rectangle(frame, (x, y), (x+w, y+h), (0, 255, 0), 2)
mycv.drawRect(frame, (x, y), (x+w, y+h), (128, 64, 255), line_width=lineWidth )
# 当发现人脸 进行 操做
# 保存图片文件
# 记录数据库
# 推送提醒socket
pass
# 绘制推送图片帧信息
# print(len(faces))
fpsshow = "Fps :" + str(int(fps)) + " Frame:" + str(count)
nframe = "Play :" + str(int(count / fps))
ntime = "Time :" + time.strftime("%Y-%m-%d %H:%M:%S", time.localtime())
if(count % fps == 0):
print(fpsshow + " " + ntime)
mycv.drawText(frame, (0, heightDeta * 1), fpsshow, textSize=textSize, lineWidth=lineWidth )
mycv.drawText(frame, (0, heightDeta * 2), nframe, textSize=textSize, lineWidth=lineWidth )
mycv.drawText(frame, (0, heightDeta * 3), ntime, textSize=textSize, lineWidth=lineWidth )
############################图片输出
# 结果帧处理 存入文件 / 推流 / ffmpeg 再处理
pipe.stdin.write(frame.tostring()) # 存入管道用于直播
out.write(frame) #同时 存入视频文件 记录直播帧数据
pass
camera.release()
# Release everything if job is finished
out.release()
print("Over!")
pass
上述代码在linux系统中可以直接运行,只需填入RTMP地址和视频源(视频文件路径或设备摄像头编号),运行后,发现推流正常。
读取的视频是rtsp网络摄像头的视频流, 但是一旦运行没多久就会出现 pipe broke 的报错(1080p视频),改为720就没问题。
发现“FFMPEG Lib对在rtsp协议中的H264 vidos不支持”的问题, 解决方法: 程序开启两个线程, 一个线程读取摄像头的帧, 另一个线程处理这帧图片, 这里还推荐一个大佬用队列处理视频的方法:
import queue
import threading
import cv2 as cv
import subprocess as sp
class Live(object):
def __init__(self):
self.frame_queue = queue.Queue()
self.command = ""
# 自行设置
self.rtmpUrl = ""
self.camera_path = ""
def read_frame(self):
print("开启推流")
cap = cv.VideoCapture(self.camera_path)
# Get video information
fps = int(cap.get(cv.CAP_PROP_FPS))
width = int(cap.get(cv.CAP_PROP_FRAME_WIDTH))
height = int(cap.get(cv.CAP_PROP_FRAME_HEIGHT))
# ffmpeg command
self.command = ['ffmpeg',
'-y',
'-f', 'rawvideo',
'-vcodec','rawvideo',
'-pix_fmt', 'bgr24',
'-s', "{}x{}".format(width, height),
'-r', str(fps),
'-i', '-',
'-c:v', 'libx264',
'-pix_fmt', 'yuv420p',
'-preset', 'ultrafast',
'-f', 'flv',
self.rtmpUrl]
# read webcamera
while(cap.isOpened()):
ret, frame = cap.read()
if not ret:
print("Opening camera is failed")
break
# put frame into queue
self.frame_queue.put(frame)
def push_frame(self):
# 防止多线程时 command 未被设置
while True:
if len(self.command) > 0:
# 管道配置
p = sp.Popen(self.command, stdin=sp.PIPE)
break
while True:
if self.frame_queue.empty() != True:
frame = self.frame_queue.get()
# process frame
# 你处理图片的代码
# write to pipe
p.stdin.write(frame.tostring())
def run(self):
threads = [
threading.Thread(target=Live.read_frame, args=(self,)),
threading.Thread(target=Live.push_frame, args=(self,))
]
[thread.setDaemon(True) for thread in threads]
[thread.start() for thread in threads]
https://zhuanlan.zhihu.com/p/74260950