UDP具有是一种很好的封装协议,比如Open×××使用UDP封装会比TCP好很多,现在越来越多的业务采用UDP传输,然后自己定义按序到达以及流控 逻辑,然而就我个人的使用经验来看,UDP太难做并发,大多数情况下,使用UDP会让epoll等高性能event机制优势全无。本文以Open×××为 例,说明一下我是怎么解决UDP并发问题的。
异步并发模型与epoll
和apache相比,nginx采用异步的处理方式,也 就是说,一个线程可以处理多个连接,基于event模型,来了个数据包就读,可能依次到达的数据不属于同一个连接,但是没关系,只要能将可读的 socket描述符和具体的连接对应上即可。这样会使得在大并发场景下,让CPU逼近其极限运转,因为它几乎没有时间闲着,它会一直处理到达的数据包。 apache的模型就不是这样,它会让一个连接单独占有一个线程,如果有大量的连接就会有大量的线程,然而对于每一个线程而言,其数据读写的压力并不是很 大,这就会导致大量线程之间频繁切换,而切换会导致cache的刷新等副作用...因此在同样的硬件配置情形下,nginx的异步模型要比apache好 很多。
我们已经知道,异步处理是搞定大并发的根本,接下来的问题是,如何让一个就绪的socket和一个业务逻辑连接对应起来,这个问题在同步模型下并不存在, 因为一个线程只处理一个连接。曾经的event机制比如select,poll,它们只能告诉你socket n就绪了,你不得不自己去通过数据结构来组织socket n和该连接信息之间的关系,典型的如下:
struct conn {
int sd;
void *others;
};
list conns;
一个链表conns囊括了该线程负责的所有连接,如果select/poll告诉你socket n就绪了,你不得不遍历这个conns链表,比较谁的sd是n,然后取出conn来处理,虽然可以用更加高效的数据结构,但是查找是必不可少的。然而 epoll解决了这个问题。
在调用epoll_ctrl将一个socket加入到epoll中时,API会为你提供一个指针,让你直接绑定一个socket描述符和一个指针,一旦socket就绪,取出的是一个结构体,其中包含了与该socket对应的指针,因此你便可以这么做:
conn.sd = sd;
conn.others = all;
ev.events = EPOLLIN;
ev.data.ptr = &conn;
epoll_ctl(kdpfd, EPOLL_CTL_ADD, sd, &ev);
while (1) {
nfds = epoll_wait(kdpfd, events, 10000, -1);
for (n = 0; n < nfds; ++n) {
conn = events[n].data.ptr;
recv(conn.sd, ....);
....
}
}
conn会一下子取出来。这是合理的方式。毕竟,内核中已经经过socket查找了,一个5元组唯一代表了一个连接,为何要在用户 态程序再找一次呢?因此除了epoll不需要遍历所有的被监视socket之外,可以保存用户的指针也是其相对于select/poll的一大优势。 nginx正是用的这种方式。我们回到Open×××。
使用TCP的Open×××
使用TCP的Open×××跟nginx几乎是一模一样,其核心处理逻辑如下:
/* 加入侦听socket */
context.sd = listener;
context.others = dont_care;
listen_ev.events = EPOLLIN;
listen_ev.data.ptr = context;
epoll_ctl(kdpfd, EPOLL_CTL_ADD, listener, &listen_ev);
/* 加入TUN网卡 */
tun.sd = tun;
tun.others = dont_care;
entry.ptr = tun;
entry.type = TUN;
tun_ev.events = EPOLLIN;
tun_ev.data.ptr = entry;
epoll_ctl(kdpfd, EPOLL_CTL_ADD, tun, &tun_ev);
while(1) {
nfds = epoll_wait(kdpfd, events, 10000, -1);
for (n = 0; n < nfds; ++n) {
if (events[n].data.ptr == context) {
child_sd = accept(context.sd, remote_addr....);
multi_instance *mi = create_mi(child_sd, remote_addr, ...);
entry.ptr = mi;
entry.type = SOCKET;
new_ev.events = EPOLLIN;
new_ev.data.ptr = entry;
epoll_ctl(kdpfd, EPOLL_CTL_ADD, child_sd, &new_ev);
....
} else if (events[n].data.ptr.type == SOCKET){
multi_instance *mi = events[n].data.ptr;
data = read_from_socket(mi);
// 这里简化了处理,因为并不是每一个数据包都是需要加密解密的,还有控制通道的包
decrypt(mi, data);
write_to_tun(data);
} else {
tun *tun = events[n].data.ptr.ptr;
packet = read_from_tun(tun);
lock(mi_hashtable);
multi_instance *mi = lookup_multi_instance_from(packet);
unlock(mi_hashtable);
encrypt(packet);
write_to_socket(packet, mi);
}
}
...
}
以上就是TCP模式下的Open×××全部逻辑,可以看到,如果socket可读,那么就可以直接取到 multi_instance,然后顺序处理就是了。我记得去年我就把Open×××改成多线程了,但是现在看来那是个失败的做法。如果使用TCP,从上 述逻辑可以看到,就算使用多线程,在socket-to-tun这个路径上也不用加锁,因此multi_instance直接通过epoll_wait就 可以取的到。
使用UDP的Open×××
然而对于UDP而言,Open×××的处理逻辑根上面TCP的逻辑就截然不同了。因为 全程只有一个UDP socket,接受所有客户端的连接,此时根本不存在什么多路复用的问题,充其量也就是那唯一的UDP socket和tun网卡字符设备二者之间的两路复用,使用epoll完全没有必要。为了定位了具体的multi_instance,你不得不先去 read唯一的那个UDP socket,然后根据recvfrom返回参数中的sockaddr结构体来构造4元组,然后根据这4元组在全局的multi_instance hash表中去查找具体multi_instance实例。其逻辑如下所示:
/* 加入唯一的UDP socket */
context.sd = udp_sd;
context.others = dont_care;
listen_ev.events = EPOLLIN;
listen_ev.data.ptr = context;
epoll_ctl(kdpfd, EPOLL_CTL_ADD, listener, &listen_ev);
/* 加入TUN网卡 */
tun.sd = tun;
tun.others = dont_care;
entry.ptr = tun;
entry.type = TUN;
tun_ev.events = EPOLLIN;
tun_ev.data.ptr = entry;
epoll_ctl(kdpfd, EPOLL_CTL_ADD, tun, &tun_ev);
while(1) {
nfds = epoll_wait(kdpfd, events, 10000, -1);
for (n = 0; n < nfds; ++n) { //实际上nfds最多也就是2
if (events[n].data.ptr == context) {
data = recvfrom(context.sd, remote_addr....);
lock(mi_hashtable); //如果多线程,这个锁将会成为瓶颈,即便是RW锁也一样
multi_instance *mi = lookup_mi(child_sd, remote_addr, ...); //再好的hash算法,也不是0成本的!
unlock(mi_hashtable);
// 这里简化了处理,因为并不是每一个数据包都是需要加密解密的,还有控制通道的包
decrypt(mi, data);
write_to_tun(data);
....
} else {
tun *tun = events[n].data.ptr.ptr;
packet = read_from_tun(tun);
lock(mi_hashtable);
multi_instance *mi = lookup_multi_instance_from(packet);
unlock(mi_hashtable);
encrypt(packet);
write_to_socket(packet, mi);
}
}
...
}
可见,TCP的Open×××和UDP的Open×××处理方式完全不同,UDP的问题在于,完全没有充分利用epoll的多路复用机制,不得不根据数据包的recvfrom返回地址来查找multi_instance...
让UDP socket也Listen起来
如 果UDP也能像TCP一样,每一个用户接进来就为之创建一个单独的socket为其专门服务该多好,这样在大并发的时候,就可以充分复用内核UDP层的 socket查找结论加上epoll的通知机制了。理论上这是可行的,因为UDP的4元组可以唯一识别一个与之通信的客户端,虽然UDP生成无连接,不可 靠,但是为每一个连接的客户端创建一个socket并没有破坏UDP的语义,只是改变了UDP的编程模型而已,内核协议栈依然不会去刻意维护一个UDP连 接,也不会进行任何的数据确认。
需要说明的是,这种方案仅仅对“长连接”的UDP有意义,比如Open×××这类。因为UDP是没有连接的,那么你也就不知道一个客户端什么时候会永远停止发送数据,因此必然要通过定时器来定时关闭那些在一定时间段内没有数据的socket。
为了验证可行性,我先在用户态做实验,也就是说,接受一个客户端的“连接请求”(其实就是一个数据包)时,我手工为其创建一个socket,然后bind 本地地址,并且connect从recvfrom返回的对端地址,这样理论上对于后续的数据包,epoll都应该触发这个新的socket,毕竟它更精 确。事实是不是这样呢?以下的程序可以证明:
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
#define SO_REUSEPORT 15
#define MAXBUF 10240
#define MAXEPOLLSIZE 100
int flag = 0;
int read_data(int sd)
{
char recvbuf[MAXBUF + 1];
int ret;
struct sockaddr_in client_addr;
socklen_t cli_len=sizeof(client_addr);
bzero(recvbuf, MAXBUF + 1);
ret = recvfrom(sd, recvbuf, MAXBUF, 0, (struct sockaddr *)&client_addr, &cli_len);
if (ret > 0) {
printf("read[%d]: %s from %d\n", ret, recvbuf, sd);
} else {
printf("read err:%s %d\n", strerror(errno), ret);
}
fflush(stdout);
}
int udp_accept(int sd, struct sockaddr_in my_addr)
{
int new_sd = -1;
int ret = 0;
int reuse = 1;
char buf[16];
struct sockaddr_in peer_addr;
socklen_t cli_len = sizeof(peer_addr);
ret = recvfrom(sd, buf, 16, 0, (struct sockaddr *)&peer_addr, &cli_len);
if (ret > 0) {
}
if ((new_sd = socket(PF_INET, SOCK_DGRAM, 0)) == -1) {
perror("child socket");
exit(1);
} else {
printf("parent:%d new:%d\n", sd, new_sd);
}
ret = setsockopt(new_sd, SOL_SOCKET, SO_REUSEADDR, &reuse,sizeof(reuse));
if (ret) {
exit(1);
}
ret = setsockopt(new_sd, SOL_SOCKET, SO_REUSEPORT, &reuse, sizeof(reuse));
if (ret) {
exit(1);
}
ret = bind(new_sd, (struct sockaddr *) &my_addr, sizeof(struct sockaddr));
if (ret){
perror("chid bind");
exit(1);
} else {
}
peer_addr.sin_family = PF_INET;
printf("aaa:%s\n", inet_ntoa(peer_addr.sin_addr));
if (connect(new_sd, (struct sockaddr *) &peer_addr, sizeof(struct sockaddr)) == -1) {
perror("chid connect");
exit(1);
} else {
}
out:
return new_sd;
}
int main(int argc, char **argv)
{
int listener, kdpfd, nfds, n, curfds;
socklen_t len;
struct sockaddr_in my_addr, their_addr;
unsigned int port;
struct epoll_event ev;
struct epoll_event events[MAXEPOLLSIZE];
int opt = 1;;
int ret = 0;
port = 1234;
if ((listener = socket(PF_INET, SOCK_DGRAM, 0)) == -1) {
perror("socket");
exit(1);
} else {
printf("socket OK\n");
}
ret = setsockopt(listener,SOL_SOCKET,SO_REUSEADDR,&opt,sizeof(opt));
if (ret) {
exit(1);
}
ret = setsockopt(listener, SOL_SOCKET, SO_REUSEPORT, &opt, sizeof(opt));
if (ret) {
exit(1);
}
bzero(&my_addr, sizeof(my_addr));
my_addr.sin_family = PF_INET;
my_addr.sin_port = htons(port);
my_addr.sin_addr.s_addr = INADDR_ANY;
if (bind(listener, (struct sockaddr *) &my_addr, sizeof(struct sockaddr)) == -1) {
perror("bind");
exit(1);
} else {
printf("IP bind OK\n");
}
kdpfd = epoll_create(MAXEPOLLSIZE);
ev.events = EPOLLIN|EPOLLET;
ev.data.fd = listener;
if (epoll_ctl(kdpfd, EPOLL_CTL_ADD, listener, &ev) < 0) {
fprintf(stderr, "epoll set insertion error: fd=%dn", listener);
return -1;
} else {
printf("ep add OK\n");
}
while (1) {
nfds = epoll_wait(kdpfd, events, 10000, -1);
if (nfds == -1) {
perror("epoll_wait");
break;
}
for (n = 0; n < nfds; ++n) {
if (events[n].data.fd == listener) {
printf("listener:%d\n", n);
int new_sd;
struct epoll_event child_ev;
new_sd = udp_accept(listener, my_addr);
child_ev.events = EPOLLIN;
child_ev.data.fd = new_sd;
if (epoll_ctl(kdpfd, EPOLL_CTL_ADD, new_sd, &child_ev) < 0) {
fprintf(stderr, "epoll set insertion error: fd=%dn", new_sd);
return -1;
}
} else {
read_data(events[n].data.fd);
}
}
}
close(listener);
return 0;
}
需要说明的是,REUSEPORT是必要的,因为在connect之前,你必须为新建的socket bind跟listener一样的IP地址和端口,因此就需要这个socket选项。
此时,如果你用多个udp客户端去给这个服务端发数据,会发现完全实现了想要的效果。
内核中的UDP Listener
虽 然在用户态可以实现效果,但是编程模型并不太好用,为了创建一个socket,你不得不先去recvfrom一下数据,好得到对端的地址,虽然使用 PEEK标志可以让创建好child socket后再读一次,但是仔细想想,最彻底的方案还是直接扩展内核,我基于3.9.6内核,对__udp4_lib_rcv这个UDP协议栈接收函数 作了以下的修改:
int __udp4_lib_rcv(struct sk_buff *skb, struct udp_table *udptable,
int proto)
{
......................
sk = __udp4_lib_lookup_skb(skb, uh->source, uh->dest, udptable);
if (sk != NULL) {
int ret;
#if 1
// 这个UDP_LISTEN,通过setsockopt来设置
if (sk->sk_state == UDP_LISTEN) {
// 如果是UDP的listener,创建一个数据socket
struct sock *newsk = inet_udp_clone_lock(sk, skb, GFP_ATOMIC);
if (newsk) {
struct inet_sock *newinet;
// 为这个数据传输socket根据skb来填充4元组信息
newinet = inet_sk(newsk);
newinet->inet_daddr = ip_hdr(skb)->saddr;
newinet->inet_rcv_saddr = ip_hdr(skb)->daddr;
newinet->inet_saddr = ip_hdr(skb)->daddr;
rcu_assign_pointer(newinet->inet_opt, NULL);
newinet->mc_index = inet_iif(skb);
newinet->mc_ttl = ip_hdr(skb)->ttl;
newinet->rcv_tos = ip_hdr(skb)->tos;
newinet->inet_id = 0xffffffff ^ jiffies;
inet_sk_rx_dst_set(newsk, skb);
// sock结构体新增csk变量,类似TCP的accept queue,但是为了简单,目前每个Listen socket只能持有一个csk,即child sock。
sk->csk = newsk;
// 将新的数据传输socket排入全局的UDP socket hash表
if (newsk->sk_prot->get_port(newsk, newinet->inet_num)) {
printk("[UDP listen] get port error\n");
release_sock(newsk);
err = -2;
goto out_go;
}
ret = udp_queue_rcv_skb(newsk, skb);
// 唤醒epoll,让epoll返回UDP Listener
sk->sk_data_ready(sk, 0);
sock_put(newsk);
} else {
printk("[UDP listen] create new error\n");
sock_put(sk);
return -1;
}
out_go:
sock_put(sk);
if (ret > 0)
return -ret;
return 0;
}
#endif
ret = udp_queue_rcv_skb(sk, skb);
sock_put(sk);
......................
}
我只是测试,因此并没有扩展UDP的accept方法,只是简单的用getsocketopt来获得这个新的socket描述符并为task安装该文件描述符,setsockopt可以设置一个UDP socket为listener。这样用户态的编程模型就很简单了。
使用新的Listen UDP来改造Open×××
有必要重构一下Open×××了,现如今它的逻辑变成了:
listen = 1;
listener = socket(PF_INET, SOCK_DGRAM, 0);
setsockopt(new_sd, SOL_SOCKET, SO_UDPLISTEN, &listen,sizeof(listen));
/* 加入侦听socket */
context.sd = listener;
context.others = dont_care;
listen_ev.events = EPOLLIN;
listen_ev.data.ptr = context;
epoll_ctl(kdpfd, EPOLL_CTL_ADD, listener, &listen_ev);
/* 加入TUN网卡 */
tun.sd = tun;
tun.others = dont_care;
entry.ptr = tun;
entry.type = TUN;
tun_ev.events = EPOLLIN;
tun_ev.data.ptr = entry;
epoll_ctl(kdpfd, EPOLL_CTL_ADD, tun, &tun_ev);
while(1) {
nfds = epoll_wait(kdpfd, events, 10000, -1);
for (n = 0; n < nfds; ++n) {
if (events[n].data.ptr == context) {
getsockopt(context.sd, SOL_SOCKET, &newsock_info....);
child_sd = newsock_info.sd;
multi_instance *mi = create_mi(child_sd, newsock_info.remote_addr, ...);
entry.ptr = mi;
entry.type = SOCKET;
new_ev.events = EPOLLIN;
new_ev.data.ptr = entry;
epoll_ctl(kdpfd, EPOLL_CTL_ADD, child_sd, &new_ev);
// 这是UDP,内核除了通知Listener之外,还会将数据排入child_sd,因此需要去读取,可以参考TCP的Fastopen逻辑
data = recvfrom(child_sd, ....);
....
} else if (events[n].data.ptr.type == SOCKET){
multi_instance *mi = events[n].data.ptr;
data = read_from_socket(mi);
// 这里简化了处理,因为并不是每一个数据包都是需要加密解密的,还有控制通道的包
decrypt(mi, data);
write_to_tun(data);
} else {
tun *tun = events[n].data.ptr.ptr;
packet = read_from_tun(tun);
lock(mi_hashtable);
multi_instance *mi = lookup_multi_instance_from(packet);
unlock(mi_hashtable);
encrypt(packet);
write_to_socket(packet, mi);
}
}
...
}
除了把accept改成了getsockopt之外,别的几乎和TCP的Open×××完全一致了。
如此一来,2014年改造的Open×××多线程版本就完美了,用户态根本不需要再使用recvfrom返回的address信息来定位 multi_instance了,一个multi_instance唯一和一个socket绑定,而每一个socket都由epoll来管理,大大降低了 用户态查找multi_instance的开销,同时也避免了锁定。