该博客是一系列的博客,首先从最基础的epoll说起,然后研究libevent源码及使用方法,最后研究nginx和node.js,关于select,poll这里不做说明,只说明其相对于epoll的不足,其实select和poll我也没用过,因为我选择了epoll。
说起epoll,做过大并发的估计都不陌生,之前做了个STB的工具,用的就是epoll处理并发,测试1.5W的并发(非简单的发消息,包括多个服务端和客户端的处理)是通过的,epoll的功能强大,让我有一定的体会,在nginx和node.js中利用的就是libevent,而libevent使用的就是epoll,如果系统不支持epoll,会选择最佳的方式(select,poll或kqueue中的一种)。
epoll名词解释:
看下百科名片是怎么解释epoll的吧,(http://baike.baidu.com/view/1385104.htm)epoll是Linux内核为处理大批量句柄而作了改进的poll,是Linux下多路复用IO接口select/poll的增强版本,它能显著减少程序在大量并发连接中只有少量活跃的情况下的系统CPU利用率。
关于具体的说明可以参考网上资料,我这里罗列下epoll相对于其他多路复用机制(select,poll)的优点吧:
epoll优点:
1. 支持一个进程打开大数目的socket描述符。
2. IO效率不随FD数目增加而线性下降,传统的select/poll每次调用都会线性扫描全部的集合,导致效率呈现线性下降。
3. 使用mmap加速内核与用户空间的消息传递。无论是select,poll还是epoll都需要内核把FD消息通知给用户空间,如何避免不必要的内存拷贝就很重要,在这点上,epoll是通过内核于用户空间mmap同一块内存实现的。
select和poll的缺点:
1. 每次调用时要重复地从用户态读入参数。
2. 每次调用时要重复地扫描文件描述符。
3. 每次在调用开始时,要把当前进程放入各个文件描述符的等待队列。在调用结束后,又把进程从各个等待队列中删除。
分析libevent的时候,发现一个博客介绍epoll的不错,网址是:http://blog.csdn.net/sparkliang/article/details/4770655
epoll用的的数据结构和函数
数据结构
typedef union epoll_data {
void *ptr;
int fd;
__uint32_t u32;
__uint64_t u64;
} epoll_data_t;
struct epoll_event {
__uint32_t events; /* epoll events */
epoll_data_t data; /* user data variable */
};
结构体epoll_event 被用于注册所感兴趣的事件和回传所发生待处理的事件.
其中epoll_data 联合体用来保存触发事件的某个文件描述符相关的数据.
例如一个client连接到服务器,服务器通过调用accept函数可以得到于这个client对应的socket文件描述符,可以把这文件描述符赋给epoll_data的fd字段以便后面的读写操作在这个文件描述符上进行。epoll_event 结构体的events字段是表示感兴趣的事件和被触发的事件可能的取值为:
EPOLLIN :表示对应的文件描述符可以读;
EPOLLOUT:表示对应的文件描述符可以写;
EPOLLPRI:表示对应的文件描述符有紧急的数据可读
EPOLLERR:表示对应的文件描述符发生错误;
EPOLLHUP:表示对应的文件描述符被挂断;
EPOLLET:表示对应的文件描述符有事件发生;
ET和LT模式
LT(level triggered)是缺省的工作方式,并且同时支持block和no-block socket.在这种做法中,内核告诉你一个文件描述符是否就绪了,然后你可以对这个就绪的fd进行IO操作。如果你不作任何操作,内核还是会继续通知你的,所以,这种模式编程出错误可能性要小一点。传统的select/poll都是这种模型的代表。
ET (edge-triggered)是高速工作方式,只支持no-block socket。在这种模式下,当描述符从未就绪变为就绪时,内核通过epoll告诉你。然后它会假设你知道文件描述符已经就绪,并且不会再为那个文件描述符发送更多的就绪通知,直到你做了某些操作导致那个文件描述符不再为就绪状态了(比如,你在发送,接收或者接收请求,或者发送接收的数据少于一定量时导致了一个EWOULDBLOCK 错误)。但是请注意,如果一直不对这个fd作IO操作(从而导致它再次变成未就绪),内核不会发送更多的通知(only once),不过在TCP协议中,ET模式的加速效用仍需要更多的benchmark确认。
ET和LT的区别在于LT事件不会丢弃,而是只要读buffer里面有数据可以让用户读,则不断的通知你。而ET则只在事件发生之时通知。可以简单理解为LT是水平触发,而ET则为边缘触发。
ET模式仅当状态发生变化的时候才获得通知,这里所谓的状态的变化并不包括缓冲区中还有未处理的数据,也就是说,如果要采用ET模式,需要一直read/write直到出错为止,很多人反映为什么采用ET模式只接收了一部分数据就再也得不到通知了,大多因为这样;而LT模式是只要有数据没有处理就会一直通知下去的.
函数
1. int epoll_create(int size);
2. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
3. int epoll_wait(int epfd, struct epoll_event *events,int maxevents, int timeout);
详解:
1. int epoll_create(int size);
创建一个epoll的句柄,size用来告诉内核这个监听的数目一共有多大。需要注意的是,当创建好epoll句柄后,它就是会占用一个fd值,在linux下如果查看/proc/进程id/fd/,是能够看到这个fd的,所以在使用完epoll后,必须调用close()关闭,否则可能导致fd被耗尽。
2. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
epoll的事件注册函数,它不同与select()是在监听事件时告诉内核要监听什么类型的事件,而是在这里先注册要监听的事件类型。第一个参数是epoll_create()的返回值,第二个参数表示动作,用三个宏来表示:
EPOLL_CTL_ADD:注册新的fd到epfd中;
EPOLL_CTL_MOD:修改已经注册的fd的监听事件;
EPOLL_CTL_DEL:从epfd中删除一个fd;
第三个参数是需要监听的fd,第四个参数是告诉内核需要监听什么事
3. int epoll_wait(int epfd, struct epoll_event *events,int maxevents, int timeout);
等待事件的产生,参数events用来从内核得到事件的集合,maxevents告之内核这个events有多大,这个 maxevents的值不能大于创建epoll_create()时的size,参数timeout是超时时间(毫秒,0会立即返回,-1将不确定,也有说法说是永久阻塞)。该函数返回需要处理的事件数目,如返回0表示已超时。
资料总结这么多,其实都是一些理论,关键还在于代码,下面附上我使用epoll开发的服务端和客户端,该代码我会上传到我的资源里,可以免费下载。链接:
如果代码有bug,可以告诉我。
首先对服务端和客户端做下说明:
我想实现的是客户端和服务端并发的程序,客户端通过配置并发数,说明有多少个用户去连接服务端。
客户端会发送消息:"Client: i send message Hello Server!”,其中i表示哪一个客户端;收到消息:"Recv Server Msg Content:%s\n"。
例如:
发送:Client: 1 send message "Hello Server!"
接收:Recv Derver Msg Content:Hello, client fd: 6
服务端收到后给客户端回复消息:"Hello, client fd: i",其中i表示服务端接收的fd,用户区别是哪一个客户端。接收客户端消息:"Terminal Received Msg Content:%s\n"
例如:
发送:Hello, client fd: 6
接收:Terminal Received Msg Content:Client: 1 send message "Hello Server!"
备注:这里在接收到消息后,直接打印出消息,如果需要对消息进行处理(如果消息处理比较占用时间,不能立即返回,可以将该消息放入一个队列中,然后开启一个线程从队列中取消息进行处理,这样的话不会因为消息处理而阻塞epoll)。libenent好像对这种有2中处理方式,一个就是回调,要求回调函数,不占用太多的时间,基本能立即返回,另一种好像也是一个队列实现的,这个还需要研究。
服务端代码说明:
服务端在绑定监听后,开启了一个线程,用于负责接收客户端连接,加入到epoll中,这样只要accept到客户端的连接,就将其add EPOLLIN到epoll中,然后进入循环调用epoll_wait,监听到读事件,接收数据,并将事件修改为EPOLLOUT;反之监听到写事件,发送数据,并将事件修改为EPOLLIN。
cepollserver.h
#ifndef C_EPOLL_SERVER_H
#define C_EPOLL_SERVER_H
#include
#include
#include
#include
#include
#include
#include
#include
#include
#define _MAX_SOCKFD_COUNT 65535
class CEpollServer
{
public:
CEpollServer();
~CEpollServer();
bool InitServer(const char* chIp, int iPort);
void Listen();
static void ListenThread( void* lpVoid );
void Run();
private:
int m_iEpollFd;
int m_isock;
pthread_t m_ListenThreadId;// 监听线程句柄
};
#endif
cepollserver.cpp
#include "cepollserver.h"
using namespace std;
CEpollServer::CEpollServer()
{
}
CEpollServer::~CEpollServer()
{
close(m_isock);
}
bool CEpollServer::InitServer(const char* pIp, int iPort)
{
m_iEpollFd = epoll_create(_MAX_SOCKFD_COUNT);
//设置非阻塞模式
int opts = O_NONBLOCK;
if(fcntl(m_iEpollFd,F_SETFL,opts)<0)
{
printf("设置非阻塞模式失败!\n");
return false;
}
m_isock = socket(AF_INET,SOCK_STREAM,0);
if ( 0 > m_isock )
{
printf("socket error!\n");
return false;
}
sockaddr_in listen_addr;
listen_addr.sin_family=AF_INET;
listen_addr.sin_port=htons ( iPort );
listen_addr.sin_addr.s_addr=htonl(INADDR_ANY);
listen_addr.sin_addr.s_addr=inet_addr(pIp);
int ireuseadd_on = 1;//支持端口复用
setsockopt(m_isock, SOL_SOCKET, SO_REUSEADDR, &ireuseadd_on, sizeof(ireuseadd_on) );
if ( bind ( m_isock, ( sockaddr * ) &listen_addr,sizeof ( listen_addr ) ) !=0 )
{
printf("bind error\n");
return false;
}
if ( listen ( m_isock, 20) <0 )
{
printf("listen error!\n");
return false;
}
else
{
printf("服务端监听中...\n");
}
// 监听线程,此线程负责接收客户端连接,加入到epoll中
if ( pthread_create( &m_ListenThreadId, 0, ( void * ( * ) ( void * ) ) ListenThread, this ) != 0 )
{
printf("Server 监听线程创建失败!!!");
return false;
}
}
// 监听线程
void CEpollServer::ListenThread( void* lpVoid )
{
CEpollServer *pTerminalServer = (CEpollServer*)lpVoid;
sockaddr_in remote_addr;
int len = sizeof (remote_addr);
while ( true )
{
int client_socket = accept (pTerminalServer->m_isock, ( sockaddr * ) &remote_addr,(socklen_t*)&len );
if ( client_socket < 0 )
{
printf("Server Accept失败!, client_socket: %d\n", client_socket);
continue;
}
else
{
struct epoll_event ev;
ev.events = EPOLLIN | EPOLLERR | EPOLLHUP;
ev.data.fd = client_socket; //记录socket句柄
epoll_ctl(pTerminalServer->m_iEpollFd, EPOLL_CTL_ADD, client_socket, &ev);
}
}
}
void CEpollServer::Run()
{
while ( true )
{
struct epoll_event events[_MAX_SOCKFD_COUNT];
int nfds = epoll_wait( m_iEpollFd, events, _MAX_SOCKFD_COUNT, -1 );
for (int i = 0; i < nfds; i++)
{
int client_socket = events[i].data.fd;
char buffer[1024];//每次收发的字节数小于1024字节
memset(buffer, 0, 1024);
if (events[i].events & EPOLLIN)//监听到读事件,接收数据
{
int rev_size = recv(events[i].data.fd,buffer, 1024,0);
if( rev_size <= 0 )
{
cout << "recv error: recv size: " << rev_size << endl;
struct epoll_event event_del;
event_del.data.fd = events[i].data.fd;
event_del.events = 0;
epoll_ctl(m_iEpollFd, EPOLL_CTL_DEL, event_del.data.fd, &event_del);
}
else
{
printf("Terminal Received Msg Content:%s\n",buffer);
struct epoll_event ev;
ev.events = EPOLLOUT | EPOLLERR | EPOLLHUP;
ev.data.fd = client_socket; //记录socket句柄
epoll_ctl(m_iEpollFd, EPOLL_CTL_MOD, client_socket, &ev);
}
}
else if(events[i].events & EPOLLOUT)//监听到写事件,发送数据
{
char sendbuff[1024];
sprintf(sendbuff, "Hello, client fd: %d\n", client_socket);
int sendsize = send(client_socket, sendbuff, strlen(sendbuff)+1, MSG_NOSIGNAL);
if(sendsize <= 0)
{
struct epoll_event event_del;
event_del.data.fd = events[i].data.fd;
event_del.events = 0;
epoll_ctl(m_iEpollFd, EPOLL_CTL_DEL, event_del.data.fd, &event_del);
}
else
{
printf("Server reply msg ok! buffer: %s\n", sendbuff);
struct epoll_event ev;
ev.events = EPOLLIN | EPOLLERR | EPOLLHUP;
ev.data.fd = client_socket; //记录socket句柄
epoll_ctl(m_iEpollFd, EPOLL_CTL_MOD, client_socket, &ev);
}
}
else
{
cout << "EPOLL ERROR\n" <
main.cpp
#include
#include "cepollserver.h"
using namespace std;
int main()
{
CEpollServer theApp;
theApp.InitServer("127.0.0.1", 8000);
theApp.Run();
return 0;
}
客户端代码:
说明:测试是两个并发进行测试,每一个客户端都是一个长连接。代码中在连接服务器(ConnectToServer)时将用户ID和socketid关联起来。用户ID和socketid是一一对应的关系。
cepollclient.h
#ifndef _DEFINE_EPOLLCLIENT_H_
#define _DEFINE_EPOLLCLIENT_H_
#define _MAX_SOCKFD_COUNT 65535
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
using namespace std;
/**
* @brief 用户状态
*/
typedef enum _EPOLL_USER_STATUS_EM
{
FREE = 0,
CONNECT_OK = 1,//连接成功
SEND_OK = 2,//发送成功
RECV_OK = 3,//接收成功
}EPOLL_USER_STATUS_EM;
/*@brief
*@CEpollClient class 用户状态结构体
*/
struct UserStatus
{
EPOLL_USER_STATUS_EM iUserStatus;//用户状态
int iSockFd;//用户状态关联的socketfd
char cSendbuff[1024];//发送的数据内容
int iBuffLen;//发送数据内容的长度
unsigned int uEpollEvents;//Epoll events
};
class CEpollClient
{
public:
/**
* @brief
* 函数名:CEpollClient
* 描述:构造函数
* @param [in] iUserCount
* @param [in] pIP IP地址
* @param [in] iPort 端口号
* @return 无返回
*/
CEpollClient(int iUserCount, const char* pIP, int iPort);
/**
* @brief
* 函数名:CEpollClient
* 描述:析构函数
* @return 无返回
*/
~CEpollClient();
/**
* @brief
* 函数名:RunFun
* 描述:对外提供的接口,运行epoll类
* @return 无返回值
*/
int RunFun();
private:
/**
* @brief
* 函数名:ConnectToServer
* 描述:连接到服务器
* @param [in] iUserId 用户ID
* @param [in] pServerIp 连接的服务器IP
* @param [in] uServerPort 连接的服务器端口号
* @return 成功返回socketfd,失败返回的socketfd为-1
*/
int ConnectToServer(int iUserId,const char *pServerIp,unsigned short uServerPort);
/**
* @brief
* 函数名:SendToServerData
* 描述:给服务器发送用户(iUserId)的数据
* @param [in] iUserId 用户ID
* @return 成功返回发送数据长度
*/
int SendToServerData(int iUserId);
/**
* @brief
* 函数名:RecvFromServer
* 描述:接收用户回复消息
* @param [in] iUserId 用户ID
* @param [in] pRecvBuff 接收的数据内容
* @param [in] iBuffLen 接收的数据长度
* @return 成功返回接收的数据长度,失败返回长度为-1
*/
int RecvFromServer(int iUserid,char *pRecvBuff,int iBuffLen);
/**
* @brief
* 函数名:CloseUser
* 描述:关闭用户
* @param [in] iUserId 用户ID
* @return 成功返回true
*/
bool CloseUser(int iUserId);
/**
* @brief
* 函数名:DelEpoll
* 描述:删除epoll事件
* @param [in] iSockFd socket FD
* @return 成功返回true
*/
bool DelEpoll(int iSockFd);
private:
int m_iUserCount;//用户数量;
struct UserStatus *m_pAllUserStatus;//用户状态数组
int m_iEpollFd;//需要创建epollfd
int m_iSockFd_UserId[_MAX_SOCKFD_COUNT];//将用户ID和socketid关联起来
int m_iPort;//端口号
char m_ip[100];//IP地址
};
#endif
cepollclient.cpp
#include "cepollclient.h"
CEpollClient::CEpollClient(int iUserCount, const char* pIP, int iPort)
{
strcpy(m_ip, pIP);
m_iPort = iPort;
m_iUserCount = iUserCount;
m_iEpollFd = epoll_create(_MAX_SOCKFD_COUNT);
m_pAllUserStatus = (struct UserStatus*)malloc(iUserCount*sizeof(struct UserStatus));
for(int iuserid=0; iuserid irecvsize)
{
cout <<"[CEpollClient error]: iUserId: " << iUserId << "RecvFromServer, recv fail, reason is:"< ilen)
{
cout <<"[CEpollClient error]: RunFun, recv fail, reason is:"<
main.cpp
#include "cepollclient.h"
int main(int argc, char *argv[])
{
CEpollClient *pCEpollClient = new CEpollClient(2, "127.0.0.1", 8000);
if(NULL == pCEpollClient)
{
cout<<"[epollclient error]:main init"<<"Init CEpollClient fail"<RunFun();
if(NULL != pCEpollClient)
{
delete pCEpollClient;
pCEpollClient = NULL;
}
return 0;
}
运行结果:
客户端:
服务端:
如是转载,请指明原出处:http://blog.csdn.net/feitianxuxue,谢谢合作!