eventepoll

首先介绍一下Epoll 主要需要3个级别的锁

 

 * 1) epmutex   互斥锁mutex

 * 2) ep->mtx   互斥锁mutex

 * 3) ep->lock   自旋锁spinlock

 

需要的顺序是从1-3 . 

 

1 ) 需要自旋锁 : 是因为我们掌管着 poll 回调方法内部的资源 这些资源的触发可能发生在中断上下文 的wake_up 中 所以呢我们不能再poll 回调方法里面睡眠 因此自旋吧~

 

 

2 ) 在事件传输的循环中(内核空间--> 用户空间我们可以中断睡眠由通过一个 copy_to_user, 所以我们需要一个允许我们睡眠的锁 ,这就是mutex啦 

 

3 ) 他在事件传输的循环中被需要epoll_ctl(EPOLL_CTL_DEL) and during eventpoll_release_file()

 

然后呢,我们需要一个全局的mutex锁 ,来序列化 eventpoll_release_file()

 

 

举个例子 比如: ep_free().

ep_free() 需要这个锁 在epoll  file 清除的过程中 同样 eventpoll_release_file()也需要 比如以下情况

如果一个file 已经被压入 epoll 的集合里面 然后直接close 却没有通过poll_ctl(EPOLL_CTL_DEL).

 

 

 

最后放弃 ep->mux 而使用全局的 epmutex(ep->lock 一起工作 也是可能的

 

但是 使用 ep->mtx 将使接口具有可扩展性 需要持有epmutex 的事件往往很稀少 然而 

对于一个一个普通的操作  ep->mutex 将保证良好的扩展性

 

 

 

 

 

* Maximum number of nesting allowed inside epoll sets */\
Epoll 集合允许的最大嵌套数
#define EP_MAX_NESTS 4
Epoll 监听的最多事件 (庞大到可以忽视)
#define EP_MAX_EVENTS (INT_MAX / sizeof(struct epoll_event))
 

 

 

 

 

 

我打算从系统调用入口开始分析 

 

/*
*这里的 SYSCALL_DEFINEx(name ,__VA_ARGS__)  其实就是通过一系列的宏变化 
*最后变成  asmlinkage long sys##name(__SC_DECL##x(__VA_ARGS__));
*这样是不是很眼熟了, 没错  "sys_xxx" linux Syscalls.h系统调用函数名的标准格式 直接
*对应unistd,h 中的调用号 , 直接对于 syscall(xx,xx) .. 不解释..
*/
SYSCALL_DEFINE1(epoll_create1, int, flags)
{
int error;
struct eventpoll *ep = NULL;
/*这里通过一个小技巧 ,能让编译的时候就发现代码开发过程中潜在的问题,而不是坐等*crash ,具体使用有各种不同的校验, 
*比如#define BUILD_BUG_ON(condition) ((void)sizeof(char[1 - 2*!!(condition)]))  如果条件*满足就直接char[-1] 哈哈*/
BUILD_BUG_ON(EPOLL_CLOEXEC != O_CLOEXEC);
/*如果没有设置 EPOLL_CLOEXEC)  就直接返回 -EINVAL给上层 */
if (flags & ~EPOLL_CLOEXEC)
return -EINVAL;
/*
 *创建一个内部用的数据结构 struct eventpoll 
 */
error = ep_alloc(&ep);
if (error < 0)
return error;
/*开始前的准备 建立一个struct file 和file  fd	 */
error = anon_inode_getfd("[eventpoll]", &eventpoll_fops, ep,
 O_RDWR | (flags & O_CLOEXEC));
if (error < 0)
ep_free(ep);
return error;
}
 

 

 

 

 

然后就开始看看上面2个没讲到的函数 和一个重要的数据结构

 

 

/*还记得struct file里面那个神奇的 private_data么, 现在它就用来指向eventpoll 不用我说就知道, 这个结构是整个epoll操作的外部接口*/
struct eventpoll {
/* Protect the this structure access 自旋锁保护这个内部数据结构*/
spinlock_t lock;
/*
 *这个互斥锁用来确保 file fd 在epoll 使用他们的时候不能被移出, 在
 *1 event 集合循环的时候 2 file fd清除过程中 3 epoll fd 退出和epoll_ctl操作
 */
struct mutex mtx;
/* sys_epoll_wait() 用的等待队列 */
wait_queue_head_t wq;
/* file->poll() [驱动层接口] 用的等待队列*/
wait_queue_head_t poll_wait;
/* List of ready file descriptors 已经准备好的file fd链表 */
struct list_head rdllist;
/* RB tree root used to store monitored fd structs 
 *用来储存所有file fd 的红黑树的根*/
struct rb_root rbr;
/*
 * This is a single linked list that chains all the "struct epitem" that
 * happened while transfering ready events to userspace w/out
 * holding ->lock. 这是一个伟大复杂的结构。。。 形成一个包含 struct epitem  结构的单链表 , 在传输就绪事件到用户空间用到	 */
struct epitem *ovflist;
/* The user that created the eventpoll descriptor 
 	 *存放了建立这个 epoll fd用户的信息(进程数 挂起信号等等 总有一天会是成熟的跟踪系统) <看了很多代码不得不佩服老外,他们在正常的开发中 ,往往能为以后的调试 统计 分析留下接口,这才是做系统的人,而我们国内公司很多功能完成后 想增加点外围接口  想扩展一下,东改西改  本来性能就不高的代码 最后惨不忍睹>*/
struct user_struct *user;
};




/*然后就来先简单说一下 struct epitem *ovflist; 这个核心的和存储位置有关的数据结构*/
struct epitem {
/* RB tree node used to link this structure to the eventpoll RB tree 
    *在 eventpoll 红黑树种的节点*/
struct rb_node rbn;
/* List header used to link this structure to the eventpoll ready list 
     *用来连接本结构体到 eventpoll 中的就绪链表 ,没错就是上面的rdllist */
struct list_head rdllink;
/*
 * Works together "struct eventpoll"->ovflist in keeping the
 * single linked chain of items. 构成上面说的 ovflist  单链表
 */
struct epitem *next;
/* The file descriptor information this item refers to 除了来本身的file fd 还指向了对应的内核file 结构
* 后面会看到这个结构很有用
*/
struct epoll_filefd ffd;
/*   依附于 file()->poll 操作的活跃 eppoll_entry数目*/
int nwait;
/* List containing poll wait queues 把上面的队列串成链表*/
struct list_head pwqlist;
/* The "container" of this item  互相保留引用 */
struct eventpoll *ep;
/* List header used to link this item to the "struct file" items list  连接自身到struct file链表*/
struct list_head fllink;
/* The structure that describe the interested events and the source fd 描述这个file fd感兴趣的事件 */
struct epoll_event event;
};
 

 

 

 

好了先说简单说了说几个主要结构, 下面就来看  ep_alloc 用来创建内部用的数据结构 struct eventpoll 

 

 

static int ep_alloc(struct eventpoll **pep)
{
int error;
struct user_struct *user;
struct eventpoll *ep;
/*给当前 task_struct -> cred -> struct user_struct 增加引用计数*/
user = get_current_user();
error = -ENOMEM;
    /*内核缓冲池中 分配一个ep结果*/
ep = kzalloc(sizeof(*ep), GFP_KERNEL);
    /*当然一般情况下不会失败*/
if (unlikely(!ep))
goto free_uid;
    /*初始化 自旋锁 互斥锁 2条等待队列 一个就绪链表*/
spin_lock_init(&ep->lock);
mutex_init(&ep->mtx);
init_waitqueue_head(&ep->wq);
init_waitqueue_head(&ep->poll_wait);
INIT_LIST_HEAD(&ep->rdllist);
/*当然是根了*/
ep->rbr = RB_ROOT;
    /*表明没激活 但以初始化 惯用伎俩*/
ep->ovflist = EP_UNACTIVE_PTR;
ep->user = user;
    /*成功返回吧 ~*/
*pep = ep;
return 0;
free_uid:
free_uid(user); /*当然是减少引用基数 (原子的)*/
eturn error;
}
 

 

 

 

 

 

 

 

 

下面就是epoll_create里的最后一个关键函数了 anno_inode_getfd


这里传入了4个参数,最主要是


2 fops file fd 对应的文件操作结构

3 priv : struct  file 结构中的 private_data

 

其实 这里返回的不是一个传统意义上的inode节点 自然没有那么成熟和强大的功能

所有通过 annon_inode_getfd 创建的 file fd  都共享一个简单的inode 节点

这样就可以节省内核的内存 避免代码 在 file indoe dentry这些结构直接的复制 挂接

 

 

int anon_inode_getfd(const char *name, const struct file_operations *fops,
		     void *priv, int flags)
{
	int error, fd;
	struct file *file;

	error = get_unused_fd_flags(flags);
	if (error < 0)
		return error;
	fd = error;
/*只要知道这里创建了一个fild fd 依附上了一个匿名的static inode 节点 就可以了*/
	file = anon_inode_getfile(name, fops, priv, flags);
	if (IS_ERR(file)) {
		error = PTR_ERR(file);
		goto err_put_unused_fd;
	}
/*这里用了rcu 锁 就为了把file结构安装在fdtable表上 */
	fd_install(fd, file);

	return fd;

err_put_unused_fd:
	put_unused_fd(fd);
	return error;
}

 

 

 

 

好了 相信大家看了上面的有点晕,  其实很明显因为 epoll_create的 描述符 是epoll自己用的并没有任何实体对应 ,所以呢 就用了anon_inode_getfd ,所以大家会发现在 proc fd里面会看到一个 


 annon_inode:[eventpoll]  是不是和上面的入参  很像呢, 哈哈   proc 文件系统就是这个德性

 

里面的目录阿 ,名字啊  都是跟着内核层次 名字来了 你会越看越熟悉.... (是不是有点废话) 

 

 

 

待续..... 

 

 

 

你可能感兴趣的:(数据结构,linux,Access,UP)