listen()函数仅在TCP服务器端调用,它做两个事情:将套接字转换到LISTEN状态和设置套接上的最大连接队列。listen()对应的内核实现为sys_listen(),下面开始对其实现作具体的分析。
一、sys_listen()函数
sys_listen()的源码实现及分析如下所示:
/* * Perform a listen. Basically, we allow the protocol to do anything * necessary for a listen, and if that works, we mark the socket as * ready for listening. */ SYSCALL_DEFINE2(listen, int, fd, int, backlog) { struct socket *sock; int err, fput_needed; int somaxconn; sock = sockfd_lookup_light(fd, &err, &fput_needed); if (sock) { /* * sysctl_somaxconn存储的是服务器监听时,允许每个套接字连接队列长度 * 的最大值,默认值是SOMAXCONN,即128,在sysctl_core_net_init()函数中初始化。 * 在proc文件系统中可以通过修改/proc/sys/net/core/somaxconn文件来修改这个值。 */ somaxconn = sock_net(sock->sk)->core.sysctl_somaxconn; /* * 如果指定的最大连接数超过系统限制,则使用系统当前允许的连接队列 * 中连接的最大数。 */ if ((unsigned)backlog > somaxconn) backlog = somaxconn; err = security_socket_listen(sock, backlog); if (!err) /* * 如果是TCP套接字,sock->ops指向的是inet_stream_ops, * sock->ops是在inet_create()函数中初始化,所以listen接口 * 调用的是inet_listen()函数。 */ err = sock->ops->listen(sock, backlog); fput_light(sock->file, fput_needed); } return err; }sys_listen()的代码流程图如下所示:
sys_listen()的代码流程和sys_bind()很像,都是先调用sockfd_lookup_light()获取描述符对应的socket实例,然后通过调用sock->ops中的操作接口来完成真正的操作。接下来看这段代码:
if ((unsigned)backlog > somaxconn) backlog = somaxconn;这里可以看出,如果指定的最大连接队列数超过系统限制,会使用系统中设置的最大连接队列数。所以,如果想扩大套接字的连接队列,只调整listen()的backlog参数是没用的,还要修改系统的设置才行。
二、inet_listen()函数
inet_listen()的源码实现及分析如下所示:
/* * Move a socket into listening state. */ /* * inet_listen()函数为listen系统调用套接字层的实现。 */ int inet_listen(struct socket *sock, int backlog) { struct sock *sk = sock->sk; unsigned char old_state; int err; lock_sock(sk); err = -EINVAL; /* * 检测调用listen的套接字的当前状态和类型。如果套接字状态 * 不是SS_UNCONNECTED,或套接字类型不是SOCK_STREAM,则不 * 允许进行监听操作,返回相应错误码 */ if (sock->state != SS_UNCONNECTED || sock->type != SOCK_STREAM) goto out; old_state = sk->sk_state; /* * 检查进行listen调用的传输控制块的状态。如果该传输控制块不在 * 在TCPF_CLOSE或TCPF_LISTEN状态,则不能进行监听操作,返回 * 相应错误码 */ if (!((1 << old_state) & (TCPF_CLOSE | TCPF_LISTEN))) goto out; /* Really, if the socket is already in listen state * we can only allow the backlog to be adjusted. */ /* * 如果传输控制块不在LISTEN状态,则调用inet_csk_listen_start() * 进行监听操作。最后,无论是否在LISTEN状态都需要设置传输控制块 * 的连接队列长度的上限。从这里可以看出,可以通过调用listen() * 来修改最大连接队列的长度。 */ if (old_state != TCP_LISTEN) { err = inet_csk_listen_start(sk, backlog); if (err) goto out; } sk->sk_max_ack_backlog = backlog; err = 0; out: release_sock(sk); return err; }
inet_listen()首先检查套接字的状态及类型,如果状态和类型不适合进行listen操作,则返回EINVAL错误。如果套接字的当前状态不是LISTEN状态,则调用inet_csk_listen_start()来分配管理接收队列的内存,并且将套接字状态转换为LISTEN状态。如果套接字状态已经是LISTEN状态,则只修改套接字中sk_max_ack_backlog成员,即连接队列的上限。从这里可以看出,可以通过调用listen()来修改连接队列的上限。但是这里有一个问题,假设套接的当前状态是LISTEN状态,连接队列的长度是100,这时调用listen()来将连接队列的长度修改为1024(假设已修改/proc/sys/net/core/somaxconn文件提高系统限制),但从代码看来并没有调用inet_csk_listen_start()来重新分配管理连接队列的内存,管理连接队列的内存没有变化,是不是会没有效果呢?其实不然,inet_csk_listen_start()中分配的内存除了listen_sock管理结构外,用作半连接队列的哈希表槽位。哈希表中可以容纳的元素个数和listen()中的backlog参数有关(和系统设置有关,还会对齐到2的整数次幂),和哈希表的槽位个数是没有关系的,参见reqsk_queue_alloc()函数。
下面来看这行代码:
sk->sk_max_ack_backlog = backlog;其中sk_max_ack_backlog存储的是套接字的连接队列的上限,即accept队列的上限,但是这个上限值并不意味着连接队列中只能有sk_max_ack_backlog指定的数量。还有一个地方需要说明的是,《Unix网络编程》中讲到listen()时,说第二个参数的值是半连接队列和连接队列的个数之和,但是在linux中不是这样的,简单地说,listen()的第二个参数既是半连接队列的长度,也是连接队列的长度,并不是两者的和。这样说不太准确,后面会专门写一篇关于listen()的第二个参数backlog的分析。
三、inet_csk_listen_start()函数
inet_csk_listen_start()的源码实现及分析如下:
/* * 使TCP传输控制块进入监听状态,实现监听状态:为管理连接 * 请求块的散列表分配存储空间,接着使TCP传输控制块的状态 * 迁移到LISTEN状态,然后将传输控制块添加到监听散列表中。 * @nr_table_entries:允许连接的队列长度上限,通过此值 * 合理计算出存储连接请求块的散列表大小 */ int inet_csk_listen_start(struct sock *sk, const int nr_table_entries) { struct inet_sock *inet = inet_sk(sk); struct inet_connection_sock *icsk = inet_csk(sk); /* * 为管理连接请求块的散列表分配存储空间,如果分配失败则返回 * 相应错误码 */ int rc = reqsk_queue_alloc(&icsk->icsk_accept_queue, nr_table_entries); if (rc != 0) return rc; /* * 初始化连接队列长度上限,清除当前已建立连接数 */ sk->sk_max_ack_backlog = 0; sk->sk_ack_backlog = 0; /* * 初始化传输控制块中与延时发送ACK段有关的控制数据结构icsk_ack */ inet_csk_delack_init(sk); /* There is race window here: we announce ourselves listening, * but this transition is still not validated by get_port(). * It is OK, because this socket enters to hash table only * after validation is complete. */ /* * 设置传输控制块状态为监听状态 */ sk->sk_state = TCP_LISTEN; /* * 调用的是inet_csk_get_port(),如果没有绑定端口,则进行绑定 * 端口操作;如果已经绑定了端口,则对绑定的端口进行校验。绑定 * 或校验端口成功后,根据端口号在传输控制块中设置网络字节序的 * 端口号成员,然后再清除缓存在传输控制块中的目的路由缓存,最后 * 调用hash接口inet_hash()将该传输控制块添加到监听散列表listening_hash * 中,完成监听 */ if (!sk->sk_prot->get_port(sk, inet->num)) { inet->sport = htons(inet->num); sk_dst_reset(sk); sk->sk_prot->hash(sk); return 0; } /* * 如果绑定或校验端口失败,则说明监听失败,设置传输控制块状态 * 为TCP_CLOSE状态 */ sk->sk_state = TCP_CLOSE; /* * 释放之前分配的inet_bind_bucket实例 */ __reqsk_queue_destroy(&icsk->icsk_accept_queue); return -EADDRINUSE; }inet_csk_listen_start()首先调用reqsk_queue_alloc()来分配管理连接队的内存,如果分配成功,则开始初始化sock结构中与连接队列相关的成员,并将套接字的状态设置为LISTEN状态。在上述工作完成后,该函数还要检查当前套接字是否已经绑定本地协议地址,如果没有绑定,则内核会自动为套接字分配一个可用端口,当前这种情况一般不会发生,如果发生那就是你的服务器程序忘记调用bind()了。
四、reqsk_queue_alloc()函数
reqsk_queue_alloc()的源码实现及分析如下所示:
/* * 用来分配连接请求块散列表,然后将其连接到所在传输控制块的请求 * 块容器中。 */ int reqsk_queue_alloc(struct request_sock_queue *queue, unsigned int nr_table_entries) { size_t lopt_size = sizeof(struct listen_sock); struct listen_sock *lopt; /* * 取用户设定的连接队列长度最大值参数nr_table_entries和系统最多 * 可同时存在未完成三次握手SYN请求数sysctl_max_syn_backlog两者的 * 最小值,他们都用来控制连接队列的长度,只是前者针对某传输控制 * 块,而后者控制的是全局的 */ nr_table_entries = min_t(u32, nr_table_entries, sysctl_max_syn_backlog); nr_table_entries = max_t(u32, nr_table_entries, 8); /* * 调用roundup_pow_of_two以确保nr_table_entries的值为2的n次方 */ nr_table_entries = roundup_pow_of_two(nr_table_entries + 1); /* * 计算用来保存SYN请求连接的listen_sock结构的大小 */ lopt_size += nr_table_entries * sizeof(struct request_sock *); if (lopt_size > PAGE_SIZE) /* * 如果用于保存SYN请求连接的listen_sock结构大于一个页面, * 则调用__vmalloc()从高位内存中分配虚拟内存,并且清零 */ lopt = __vmalloc(lopt_size, GFP_KERNEL | __GFP_HIGHMEM | __GFP_ZERO, PAGE_KERNEL); else /* * 如果小于一个页面,则在常规内存中分配内存并清零。kzalloc() * 封装了kmalloc()及memset() */ lopt = kzalloc(lopt_size, GFP_KERNEL); if (lopt == NULL) return -ENOMEM; /* * 从nr_table_entries = max_t(u32, nr_table_entries, 8);中可以看出 * nr_table_entries最小值为8,所以这里从3开始 */ for (lopt->max_qlen_log = 3; (1 << lopt->max_qlen_log) < nr_table_entries; lopt->max_qlen_log++); /* * 初始化listen_sock结构中的一些成员,如用于生成连接请求块 * 散列表的hash_rnd等 */ get_random_bytes(&lopt->hash_rnd, sizeof(lopt->hash_rnd)); rwlock_init(&queue->syn_wait_lock); queue->rskq_accept_head = NULL; lopt->nr_table_entries = nr_table_entries; /* * 将散列表连接到所在传输控制块的请求块容器中 */ write_lock_bh(&queue->syn_wait_lock); queue->listen_opt = lopt; write_unlock_bh(&queue->syn_wait_lock); return 0; }
从上面的代码中可以看到半连接队列长度的计算过程,nr_table_entries的值存储的就是计算的结果,这个值是基于listen()的第二个参数的值计算得到的。半连接队列的上限值的以2为底的对数存储在lopt的max_qlen_log成员中,对数的计算是通过下面的代码完成的,如下所示:
for (lopt->max_qlen_log = 3; (1 << lopt->max_qlen_log) < nr_table_entries; lopt->max_qlen_log++);
五、结束语
在listen()系统调用中,第二个参数backlog对服务器的程序影响是很大的,而且不同的系统对这个参数的使用可能有所不同。前面我们也提到了,《Unix网络编程》中对第二参数backlog的描述是连接队列和半连接队列的长度之和不超过backlog,但是在Linux中并不是这样,限于篇幅,后面会单独写一篇关于backlog参数的分析文章来详细介绍。