GB28181系列文章:
总述:https://blog.csdn.net/www_dong/article/details/132515446
注册与注销:https://blog.csdn.net/www_dong/article/details/132654525
心跳保活:https://blog.csdn.net/www_dong/article/details/132796612
网络设备信息查询:https://blog.csdn.net/www_dong/article/details/132912085
视音频点播(信令传输部分):https://blog.csdn.net/www_dong/article/details/132950064
提供媒体流的转发、媒体存储、历史媒体信息的检索和点播服务的服务器。
jrtplib是一个面向对象的RTP封装库。
特点:
jrtplib的使用依赖于jthread,使用方式用两种:
下载地址:https://research.edm.uhasselt.be/jori/page/Cs/JrtplibOld.html 。
该项目目前使用的是jrtplib-3.11.2.zip+jthread-1.3.3.zip。下载完成后使用cmake生成windows下.sln工程编译生成静态库使用。
uint8_t payload;
while (m_running)
{
Poll();
BeginDataAccess();
if (GotoFirstSourceWithData())
{
do
{
RTPPacket* packet = nullptr;
while (nullptr != (packet = GetNextPacket()))
{
payload = packet->GetPayloadType();
if (0 == payload)
{
DeletePacket(packet);
continue;
}
// ...
// rtp载荷数据处理流程
DeletePacket(packet);
}
} while (GotoNextSourceWithData());
}
EndDataAccess();
Sleep(30);
}
Destroy();
该流程使用的是libmpeg库,下载地址:https://github.com/ireader/media-server.git
由于国标流是ps封装,故需要将ps流解复用获取原始数据。
解复用代码流程:
static void* Alloc(void* /*param*/, size_t bytes)
{
return malloc(bytes);
}
static void Free(void* /*param*/, void* packet)
{
free(packet);
}
static int Write(void* param, int avtype, void* pes, size_t bytes)
{
assert(param);
CPSParse* parse = (CPSParse*)param;
return parse->Package(avtype, pes, bytes);
}
CPSParse::CPSParse()
{
struct ps_muxer_func_t func;
func.alloc = Alloc;
func.free = Free;
func.write = Write;
m_ps = ps_muxer_create(&func, this);
m_ps_stream = ps_muxer_add_stream(m_ps, STREAM_VIDEO_H264, nullptr, 0);
}
CPSParse::~CPSParse()
{
if (m_ps)
ps_muxer_destroy(m_ps);
}
int CPSParse::InputData(void* data, int len)
{
if (nullptr == m_ps || nullptr == data || len <= 0)
return -1;
uint64_t clock = time64_now();
if (0 == m_ps_clock)
m_ps_clock = clock;
ps_muxer_input(m_ps, m_ps_stream, 0, (clock - m_ps_clock) * 90, (clock - m_ps_clock) * 90, data, len);
return 0;
}
int CPSParse::Package(int avtype, void* payload, size_t bytes)
{
// 数据处理
return 0;
}
通过对ps数据流解复用获取原始数据,本项目通过ffmpeg对原始数据进行解码获取yuv数据。
关于ffmpeg的使用,可以查看:
音视频播放器设计(一)——环境配置:https://blog.csdn.net/www_dong/article/details/124459467
音视频播放器设计(二)——ffmpeg视频处理流程:https://blog.csdn.net/www_dong/article/details/124561444
音视频播放器设计(三)——OpenGL绘制视频:https://blog.csdn.net/www_dong/article/details/124638515
音视频播放器设计(四)——ffmpeg音频处理流程:https://blog.csdn.net/www_dong/article/details/125323635
通过ffmpeg解码获取yuv数据,本项目通过qt的QOpenGLWidget对yuv数据进行渲染达到播放的目的。
#include
#include
#include
class PlayWidget : public QOpenGLWidget, protected QOpenGLFunctions
{
public:
PlayWidget(QWidget *parent = nullptr);
virtual ~PlayWidget();
// ...
};