Portal RPC为如下内容提供了基础机制:
我们将首先探讨Portal RPC的接口,而不深入到实现细节中。我们将用LDLM的发送机制作为例子。对这个实例,LDLM向客户端发送一个阻塞ASTRPC(ldlm_server_blocking_ast),该客户端是一个给定的锁的占有者和管理者。这个例子帮助我们更好地理解客户端怎样使用Portal RPC API。
首先,我们下面给出的那样准备大小。
structldlm_request *req;
__u32 size[] = {[MSG_PTLRPC_BODY_OFF] = sizeof(struct ptlrpc_body),
[DLM_LOCKREQ_OFF] = sizeof (*body) };
请求可以被看成一连串的记录,第一个记录的偏移量是0,而第二个记录的偏移量是2,如此继续。一旦确定了大小,我们可以调用ptlrpc_prep_req()。这个函数的原型是:
structptlrpc_request *
ptlrpc_prep_req(struct obd_import *imp, __u32 version, int opcode,
int count, __u32 *lengths, char **bufs)
要进行RPC通信,客户端需要一个输入口,而它在连接阶段就创建了。*imp指针就指向这个输入口,而version则指出Portal RPC内部使用的用来打包数据的版本。这里的打包是传输线上的格式(on-the-wireformat),定义了在网络报文中,缓冲实际上处于哪个位置。为了区分它们的布局(layout)请求,每个子系统定义了版本号——例如,MDC和MDS定义了它们的版本,MGC和MGS则定义了另外一个。
opcode确定了这个请求是对于什么的请求。每个子系统定义了一些操作(更多信息,参看lustre_idl.h)。count就是这个请求所需的缓冲数,而*length是一个数组,其中每个元素确定了对应请求缓冲的大小。最后一个参数signalsPortalRPC to accept (copy the data over) and process the incoming packet as is(??)。对于我们的例子,这个函数按如下形式被调用:
req =ptlrpc_prep_req(lock->l_export->exp_imp_reverse,
LUSTRE_DLM_VERSION, LDLM_BL_CALLBACK, 2,size, NULL);
这种调用表明,请求了两个缓冲,而每个缓冲的大小由参数列表中的size表示。
除了内部管理(housekeeping)之外,上述调用还分配了请求缓冲,并将之存储在req->rq_reqmsg中。感兴趣的地址能够通过给出记录偏移量来得到:
body =lustre_msg_buf(req->rq_reqmsg, DLM_LOCKREQ_OFF, sizeof(*body));
在服务器端,我们能够看到有着类似输入参数的相同的帮助方法,它被用来取得感兴趣的字段。一旦得到了缓冲结构体,就可以进一步地填入请求所需的字段。在所有这些完成之后,有几种方法来发送请求,如下所述:
ptl_send_rpc() 发送RPC的一种简单形式,它不等待回复,在失败发生时也不重发。这不是一个发送RPC的优选方法。
ptlrpcd_add_req()一个完全异步的RPC发送方法,由ptl-rpcd守护进程处理。
ptlrpc_set_wait()一个同步地发送多条消息的方法,只有在它得到所有回复时才会返回。首先,使用ptlrpc_set_add_req()来将请求放入一个未初始化集合里(pre-initialized set),该集合里面包含了一个或者多个需要一齐发送的请求。
ptlrpc_queue_wait()可能是最常用的发送RPC的方法。它是同步的,只有在RPC的请求发送完,且接收到回复后才返回。
在调用RPC请求之后的最后一步是,通过调用ptlrpc_req_finished(req)来释放资源引用。
服务器端使用Portal RPC的方法和客户端完全不同。首先,它使用如下函数初始化服务:
structptlrpc_service * ptlrpc_init_svc (
int nbufs, /* num of buffers to allocate*/
int bufsize, /* size of above requestedbuffer */
int max_req_size, /* max request sizeserver will accept */
int max_reply_size, /* max reply sizeserver will send */
int req_portal, /* req service port inlnet */
int rep_portal, /* rep service port inlnet */
int watchdog_factor, /* wait time forhandler to finish */
svc_handler_t handler, /* service handlerfunction */
char *name, /* service name */
cfs_proc_dir_entry_t *proc_entry, /* forprocfs */
svcreq_printfn_t svcreq_printfn, /* forprocfs */
int min_threads, /* min # of threads tostart */
int max_threads, /* max # of threads tostart */
char *threadname /* thread name prefix */
)
一旦调用返回,请求就可以进入,就将调用注册好的处理函数。通常,服务器将手头的工作分为几类。对每类,它创建一个不同的线程池。这些线程共享同样的处理函数。使用不同的池的原因是为了防止饿死。在一些情况下,多个线程池也防止了死锁,在死锁情况下,为处理一个新的RPC,所有线程都在等待某个资源变成可用。
客户端首先发送一个块RPC请求。让我们假设这是一个写请求。它里面包含了对传输什么的描述。现在服务器处理请求,分配空间,然后控制数据传输。服务端的下一个RPC将把数据传输到先前分配的空间里。osc_brw_pre_request()里所做的就是上述过程的一个实例。让我们看一下这个过程:
1. 块传输的初始化从上述的准备工作开始着手。然而,因为我们是在从一个已分配好的池里请求,所以准备请求有点不同,如果请求本身可能和内存不足的情况相关,那么这就是导致内存不足的那种情形(?)。
req =ptlrpc_pre_req_pool(cli->cl_import, LUSTRE_OST_VERSION,
opc, 4, size, null, pool)
这里的opc可能是,比如说,OST_WRITE。
2. 接着,我们制定服务入口。在接入口结构中,有一个入口,作为默认情况,请求将由这个入口处理。但是,在这种情况下,让我们假设请求将由一个特定的入口处理:
req->rq_request_portal= OST_IO_PORTAL;
3. 然后,我们需要准备块请求。我们传入指向请求的指针、页数目、类型和目的入口。返回的是对这个请求的块描述符。注意,块请求将传入另外一个的入口:
structptlrpc_bulk_desc desc = ptlrpc_prep_bulk_imp(req, page_count,
BULK_GET_SOURCE, OST_BULK_PORTAL);
4. 对于每个需要传输的页,我们调用ptlrpc_prep_bulk_page(),将该页及时地加到块描述符中。这是请求里面的一个标志,它表明这是一个块请求,而我们需要检查这个描述符,以取得页的布局信息。
structptlrpc_request {
...
struct ptlrpc_bulk_desc *rq_bulk;
...
}
在服务器端,整体的准备结构是类似的,但是现在准备的是输出口,而不是输入口。在ost处理函数中的ost_brw_read()里可以看到一个例子:
desc =ptlrpc_prep_bulk_exp(req, npages, BULK_PUT_SOURCE, OST_BULK_PORTAL);
服务器端也需要为每个块页做准备。然后,服务器端就可以开始传输:
rc =ptlrpc_start_bulk_transfer(desc);
在此时,从客户端发来的第一个RPC请求已经由服务器处理了,而服务器已为块数据传输做好了准备。现在客户端可以像我们在此节开始时提及的那样开始块RPC传输。
NRS优化
另外一个需要指出的是,在服务器端,我们接到了大量的描述符,这些描述符描述了待读或待写的页布局。如果在相同的方向上,存在邻接的读或者写,就提供了一个优化的机会。如果确实存在,那么它们可以被聚合和同时处理。这就是网络请求调度(Network Request Scheduler, NRS)的课题。这也显示出两阶段块传输的重要性,它使我们有了一个想法:在输入输出数据时,并不立马取得数据,而是重新组织,以获得更好的性能。两阶段操作的另外一个原因是,随着服务初始化的增加,就会分配一定量的缓冲空间。当客户端请求到达时,在进一步处理之前,可以将它们先缓存在这个空间里,因为为了容纳潜在的块传输而预先分配一大块空间并不是优选的方法。另外,不用大的数据块覆盖服务器的缓冲空间是非常重要的,在这种情形下,两阶段操作也有作用。
大多数的恢复机制都在Portal RPC层实现。我们以一个从高层传递下来的portal RPC请求作为开始。在Portal RPC内部,输入口维护了两个链表,它们对我们的探讨非常重要。它们就是sending和replay链表。输入口同时维护了imp->states和imp->flags。可能的状态是:full、connecting、disconnecting和 recovery,可能的标志是invalid、active和inactive。
在检查输入口的健康状态后,发送请求将继续。这些步骤序列如下:
1. 发送RPC请求,然后将它存入在正在发送链表,并在客户端开始obd计时器。
2. 如果服务器在计时耗尽之前回复,而请求又是可重复的,那么将之从发送链表删除,并加入重复链表。如果请求是不可重复的,那么在接收到回复时,将之从发送链表中删除。
从服务器端发来的回复并不一定意味着它已经将数据写入了磁盘(假设请求改变了盘上数据)。所以,我们必须等待从服务器端发出的事务提交(一个事务号),它意味着现在变更已经安全地提交给磁盘了。这种上一次服务器提交的事物号通常附加在(piggbacked)在各个服务器回复上。
通常,从MDC到MDS的请求是可重复的,但是OSC到OST的请求则不是,而这仅仅在异步日志更新未使能时才是对的。这里有两个原因:
3. 如果计时器超时,客户端将这个输入口状态从full转变为disconnect。现在pinger插入一脚,如果服务器对pinger有响应,那么客户端将试着重连(以reconnect标志连接)。
4. 如果重连成功,那么我们开始恢复过程。我们现在将状态标记为recovery,并首先开始发送重复链表中的其请求,然后是发送正在发送链表中的请求。
关于pinger的关键之处是,如果请求以足够的频率发送,那就不需要用pinger了。只有在客户端有一个较长的空闲时期,pinger才用来和服务器保持活跃连接,从而防止由于无活动而被驱逐。在另一方面,如果客户端由于任何原因而离线,服务器将不会被客户端ping,服务器可能也会驱逐这个客户端。
本文章欢迎转载,请保留原始博客链接http://blog.csdn.net/fsdev/article