前段时间在公司开发了基于udp的流媒体转发服务器,在公网udp转发ts,花屏比较严重。课下之余写了epoll-tcp模型的转发服务器作为测试,比较一下效果,其间遇到不少问题,在此做个笔记。代码最后附上
一、业务需求:终端录制视频(android编码h264) 客户端请求视频 服务器负责转发
因为是测试用没有考虑配置文件,负载均衡,安全认证等
二、协议指定
1、音视频 协议定义:总长度不大于1500 bytes, 终端启动后就进行发送数据
长度 short |
终端id int |
类型 byte |
包序号 short |
帧类型 byte |
数据 |
2 byte |
4 byte |
1 byte |
2 byte |
1 byte |
|
类型标志:0xF0 视频
0xF1 音频
0x00 指令
2、指令协议 用于客户端请求视频
长度 short |
终端id int |
类型 byte |
指令 int |
2 byte |
4 byte |
1 byte |
4 byte |
指令:0x0010 请求报活
0x0011 停止请求
三、数据结构关联
1、会话管理
struct Connection //终端、客户端 会话管理
{
int term; // 终端id, 用于客户端时表示请求目标的id
int sock; //tcp
time_t tm; //上次活动时间
int bufsize; //用于epoll 接收
int wantsize;
int recvsize;
char *recvbuf;
CBufQue bufque; //循环队列,客户端用于缓存要发送的数据
}
typedef map<int, Connection*> MAPConnection; // socket -Connection //存储会话
typedef set<int> SETSocket; //socket
typedef map<int, SETSocket*> MAPTermClient; // 一个终端可以转发到多个客户端,保存客户端的key
2、流程管理
线程1-terminal:接收终端视频 : epoll ET模式 非阻塞socket
线程2-media:将接受的视频数据分发到对应的客户端发送缓冲队列
线程3-client:接收客户端的请求, 分发视频数据,epoll LT模式 非阻塞 socket
线程4-cmd:处理客户端的指令,请求停止等
四、代码注意细节
1、socket 设置非堵塞
bool NetCommon::SetSockBlock(const int &fd, bool block) { if(block) { int flags = fcntl(fd, F_GETFL, 0); fcntl(fd, F_SETFL, flags&~O_NONBLOCK); } else { int flags = fcntl(fd, F_GETFL, 0); fcntl(fd, F_SETFL, flags|O_NONBLOCK); } return true; }
bool NetCommon::SetReuseAddr(const int &fd, bool reuse) { int opt = 0; if(reuse) { opt = 1; } else { opt = 0; } if(setsockopt(fd, SOL_SOCKET, SO_REUSEADDR, &opt, sizeof(opt)) < 0) { return false; } return true; }
3、accept
LT模式比较清晰,就不说了
ET模式下accept存在的问题
考虑这种情况:多个连接同时到达,服务器的TCP就绪队列瞬间积累多个就绪连接,由于是边缘触发模式,epoll只会通知一次,accept只处理一个连接,导致TCP就绪队列中剩下的连接都得不到处理。
解决办法是用while循环抱住accept调用,处理完TCP就绪队列中的所有连接后再退出循环。如何知道是否处理完就绪队列中的所有连接呢?accept返回-1并且errno设置为EAGAIN就表示所有连接都处理完。
int ctcpserver::acceptterminal(Connection *pConn) { while(true) { int newsock = accept(pConn->sock,NULL, NULL); if(newsock < 0) { if(errno == EINTR || errno == EWOULDBLOCK || errno == EAGAIN) { break; } return -1; } if( newsock > 0) { NetCommon::SetSockBlock(newsock,false); NetCommon::SetReuseAddr(newsock, true); if(m_mapConnTerminal.size() > 500) { close(newsock); return 0; } Connection *newcon = new Connection; newcon->sock = newsock; newcon->wantsize = 2; newcon->recvsize = 0; time( &(newcon->tm)); if(m_epollTerminal.EpollAdd(newsock, EPOLLIN|EPOLLET, newcon) < 0) { delete newcon; newcon = NULL; close(newsock); return -1; } m_mapConnTerminal.insert(make_pair<int, Connection*>(newsock,newcon)); } } return 0; }
4、recv
Epoll ET模式 非阻塞socket,必须独到没有数据可读,此处的设计是每个socket对应一个connection,connection中有一个数据包的长度wantsize,接收完一个数据包之后,会将此数据包放入队列等待处理,循环接收下一个数据包
int ctcpserver::recvn(Connection *pConn) { int iret = 0; //wantsize < 2048 while(pConn->recvsize < pConn->wantsize) { iret = recv(pConn->sock, pConn->buf+pConn->recvsize,pConn->wantsize-pConn->recvsize, 0); if(iret == -1) { if(errno == EINTR) { break; } else if(errno == EWOULDBLOCK || errno == EAGAIN) { break; } else { return -1; } } if(iret == 0) { return -1; } pConn->recvsize += iret; } time(&(pConn->tm)); return pConn->recvsize; }
int ctcpserver::recvtrminal(Connection *pConn) { int iret = 0; while(true) { iret = recvn(pConn); if(iret < 0) { close(pConn->sock); m_epollTerminal.EpollDel(pConn->sock,pConn); m_mapConnTerminal.erase(pConn->sock); delete pConn; pConn = NULL; return -1; //error } if(pConn->recvsize != pConn->wantsize) //no data recv { break; } else { if(pConn->wantsize == 2) //接收玩的是数据的长度信息,去设置数据的接收大小 { pConn->wantsize = *(short*)(pConn->buf); if(pConn->wantsize > 2048 || pConn->wantsize < 2) //设计是不大于1500,此处为了兼容其他测试 { close(pConn->sock); m_epollTerminal.EpollDel(pConn->sock,pConn); m_mapConnTerminal.erase(pConn->sock); delete pConn; pConn = NULL; return -1; //something error with data } } else //接收完一个数据包 { BufNode *pnode = m_bufQueMedia.AllocNode(); if(pnode != NULL ) { memset( pnode->pBuf,0,pnode->nMaxLen); pnode->nLen = pConn->recvsize; memcpy(pnode->pBuf, pConn->buf,pConn->recvsize); pnode->sock = pConn->sock; m_bufQueMedia.PushNode(pnode); //media 线程负责处理数据 m_semMediaTask.Post(); } pConn->recvsize = 0; pConn->wantsize = 2; } } } return 0; }
int ctcpserver::terminalloop() { int event_count = 0; while(true) { event_count = m_epollTerminal.EpollWait(); if(event_count < 0) { if(errno == EINTR) { continue; } return 0; } else if(event_count > 0) { m_mutexTerminal.Lock(); for(int index=0; index < event_count; index++) { Connection *pConn = (Connection*)(m_epollTerminal.GetEVPtr(index)); if(pConn->sock == m_terminalsock) { if(acceptterminal(pConn) < 0) { return 0; } } else { if( m_epollTerminal.GetEVEvents(index)&EPOLLIN ) { if(recvtrminal(pConn) < 0) { continue; } } else if(m_epollTerminal.GetEVEvents(index)&EPOLLOUT) { } } } m_mutexTerminal.UnLock(); } } return 0; }
这个问题比较谨慎处理,EPOLLOUT 到底在什么时候触发??
ET 模式下,转发一片文章 http://www.cnblogs.com/moodlxs/archive/2011/12/16/2290288.html
ET模式称为边缘触发模式,顾名思义,不到边缘情况,是死都不会触发的。
EPOLLOUT事件:
EPOLLOUT事件只有在连接时触发一次,表示可写,其他时候想要触发,那你要先准备好下面条件:
1.某次write,写满了发送缓冲区,返回错误码为EAGAIN。
2.对端读取了一些数据,又重新可写了,此时会触发EPOLLOUT。
简单地说:EPOLLOUT事件只有在不可写到可写的转变时刻,才会触发一次,所以叫边缘触发,这叫法没错的!
其实,如果你真的想强制触发一次,也是有办法的,直接调用epoll_ctl重新设置一下event就可以了,event跟原来的设置一模一样都行(但必须包含EPOLLOUT),关键是重新设置,就会马上触发一次EPOLLOUT事件。
EPOLLIN事件:
EPOLLIN事件则只有当对端有数据写入时才会触发,所以触发一次后需要不断读取所有数据直到读完EAGAIN为止。否则剩下的数据只有在下次对端有写入时才能一起取出来了。
现在明白为什么说epoll必须要求异步socket了吧?如果同步socket,而且要求读完所有数据,那么最终就会在堵死在阻塞里。
在此测试项目,用了LT模式,但如何避免一直触发?
当有数据需要发送时,添加EPOLLOUT监听事件。当发送完成后移除此事件
int ctcpserver::sendclient(Connection *pConn) { // BufNode *pnode = pConn->bufque.FrontNode(); // if(pnode != NULL) { int iret = send(pConn->sock, pnode->pBuf,pnode->nLen,0); if(iret <= 0) { if(errno != EAGAIN || errno == EWOULDBLOCK || errno == EAGAIN) { return 0; } else { close(pConn->sock); m_epollClient.EpollDel(pConn->sock,pConn); m_mapConClient.erase(pConn->sock); delete pConn; pConn = NULL; // cout << "m_mapConClient count:" << m_mapConClient.size() << endl; return -1; } } else { pConn->bufque.PopNode(); pConn->bufque.FreeNode(pnode); } } if(pConn->bufque.GetUsedNodeCount() == 0) { m_epollClient.EpollMod(pConn->sock, EPOLLIN, pConn);//移除EPOLLOUT 监听 } return 0; }
int ctcpserver::mediataskloop()
{
while (true)
{
m_semMediaTask.Wait();
BufNode *pnode = m_bufQueMedia.PopNode();
if(pnode == NULL)
{
continue;
}
//id-client
int id = *(int*)(pnode->pBuf+2);
m_mutexTermClient.Lock();
MAPTermClientIt itTermClient = m_mapTermClient.find(id);
if(itTermClient == m_mapTermClient.end())
{
SETSocket *pSetSock = new SETSocket;
pSetSock->clear();
m_mapTermClient.insert(make_pair<int, SETSocket*>(id,pSetSock));
}
else
{
SETSocket *pSetSock= itTermClient->second;
if(!pSetSock->empty())
{
SETSocketIt itSock;
m_mutexClient.Lock();
for(itSock=pSetSock->begin(); itSock != pSetSock->end(); ++ itSock)
{
int sock = *itSock;
MAPConnectionIt itConnClient = m_mapConClient.find(sock);
if(itConnClient != m_mapConClient.end())
{
Connection *pConn = itConnClient->second;
BufNode *pnodeClient = pConn->bufque.AllocNode();
if(pnodeClient == NULL)
{
continue;
}
memcpy(pnodeClient->pBuf, pnode->pBuf, pnode->nLen );
pnodeClient->nLen = pnode->nLen;
pConn->bufque.PushNode(pnodeClient);
m_epollClient.EpollMod(pConn->sock, EPOLLIN|EPOLLOUT, pConn); //添加EPOLLOUT 监听
}
else
{
pSetSock->erase(itSock);
}
}
m_mutexClient.UnLock();
}
}
m_mutexTermClient.UnLock();
m_bufQueMedia.FreeNode(pnode);
}
return 0;
}