BlueStore源码分析之事务状态机

前言

BlueStore可以理解为一个支持ACID的本地日志型文件系统。所有的读写都是以Transaction进行,又因为支持覆盖写,所以写流程设计的相对复杂一些,涉及到一系列的状态转换。我们着重分析一下状态机、延迟指标以及如何保证IO的顺序性和并发性。

目录

  • 状态机
  • 延迟分析
  • IO保序
  • 线程队列
  • IO状态
  • 最后YY

状态机

queue_transactions

queue_transactions是ObjectStore层的统一入口,KVStore、MemStore、FileStore、BlueStore都相应的实现了这个接口。state_t state变量记录了当前时刻事务处于哪个状态。在创建TransactionContext的时候会将state初始化为STATE_PREPARE,然后在_txc_add_transaction中会根据操作码类型(opcode)进行不同的处理。同时会获取PG对应的OpSequencer(每个PG有一个OpSequencer)用来保证PG上的IO串行执行,对于deferred-write会将其数据写入RocksDB(WAL)。

以下阶段就进入BlueStore状态机了,我们以写流程为导向分析状态机的每个状态。

STATE_PREPARE

从state_prepare开始已经进入事务的状态机了。这个阶段会调用_txc_add_transaction将OSD层面的事务转换为BlueStore层面的事务;然后检查是否还有未提交的IO,如果还有就将state设置为STATE_AIO_WAIT并调用_txc_aio_submit提交IO,然后退出状态机,之后aio完成的时候会调用回调函数txc_aio_finish再次进入状态机;否则就进入STATE_AIO_WAIT状态。
_txc_aio_submit函数调用栈:

bdev->aio_submit –> KernelDevice::aio_submit –> io_submit将aio提交到内核Libaio队列。

主要工作:准备工作,生成大小写、初始化TransContext、deferred_txn、分配磁盘空间等。

延迟指标l_bluestore_state_prepare_lat,从进入状态机到prepare阶段完成,平均延迟大概0.2ms左右。

STATE_AIO_WAIT

该阶段会调用_txc_finish_io进行SimpleWrite的IO保序等处理,然后将状态设置为STATE_IO_DONE再调用_txc_state_proc进入下一个状态的处理。

主要工作:对IO保序,等待AIO的完成。

延迟指标l_bluestore_state_aio_wait_lat,从prepare阶段完成开始到AIO完成,平均延迟受限于设备,SSD 0.03ms左右。

STATE_IO_DONE

完成AIO,并进入STATE_KV_QUEUED阶段。会根据bluestore_sync_submit_transaction做不同处理。该值为布尔值,默认为false。

如果为true,设置状态为STATE_KV_SUBMITTED并且同步提交kv到RocksDB但是没有sync落盘(submit_transaction),然后applied_kv

如果为false,则不用做上面的操作,但是以下操作都会做。

最后将事务放在kv_queue里,通过kv_cond通知kv_sync_thread去同步IO和元数据。

主要工作:将事务放入kv_queue,然后通知kv_sync_thread,osr的IO保序可能会block。

延迟指标l_bluestore_state_io_done_lat,平均延迟在0.004ms,通常很小主要耗在对SimpleWrite的IO保序处理上。

STATE_KV_QUEUED

该阶段主要在kv_sync_thread线程中同步IO和元数据,并且将状态设置为STATE_KV_SUBMITTED。具体会在异步线程章节分析kv_sync_thread线程。

主要工作:从kv_sync_thread队列中取出事务。

延迟指标l_bluestore_state_kv_queued_lat,从事务进入队列到取出事务,平均延迟在0.08ms,因为是单线程顺序处理的,所以依赖于kv_sync_thread处理事务的速度。

STATE_KV_SUBMITTED

等待kv_sync_thread中kv元数据和IO数据的Sync完成,然后将状态设置为STATE_KV_DONE并且回调finisher线程。

主要工作:等待kv元数据和IO数据的Sync完成,回调finisher线程。

延迟指标l_bluestore_state_kv_committing_lat,从队列取出事务到完成kv同步,平均延迟1.0ms,有极大的优化空间。

STATE_KV_DONE

如果是SimpleWrite,则直接将状态设置为STATE_FINISHING;如果是DeferredWrite,则将状态设置为STATE_DEFERRED_QUEUED并放入deferred_queue

主要工作:如上。

延迟指标l_bluestore_state_kv_done_lat,平均延迟0.0002ms,可以忽略不计。

STATE_DEFERRED_QUEUED

主要工作:将延迟IO放入deferred_queue等待提交。

延迟指标l_bluestore_state_deferred_queued_lat,通常不小,没有数据暂不贴出。

STATE_DEFERRED_CLEANUP

主要工作:清理延迟IO在RocksDB上的WAL。

延迟指标l_bluestore_state_deferred_cleanup_lat,通常不小,没有数据暂不贴出。

STATE_FINISHING

主要工作:设置状态为STATE_DONE,如果还有DeferredIO也会提交。

延迟指标l_bluestore_state_finishing_lat,平均延迟0.001ms。

STATE_DONE

主要工作:标识整个IO完成。

延迟指标l_bluestore_state_done_lat

延迟分析

BlueStore定义了状态机的多个延迟指标,由PerfCounters采集,函数为BlueStore::_init_logger()

可以使用ceph daemon osd.0 perf dump或者ceph daemonperf osd.0来查看对应的延迟情况。

除了每个状态的延迟,我们通常也会关注以下两个延迟指标:

b.add_time_avg(l_bluestore_kv_lat, "kv_lat",
 "Average kv_thread sync latency", "k_l",
 
b.add_time_avg(l_bluestore_commit_lat, "commit_lat",
 "Average commit latency", "c_l", 
 

BlueStore延迟主要花费在l_bluestore_state_kv_committing_lat也即c_l,大概1ms左右。

BlueStore统计状态机每个阶段延迟的方法如下:

// 该阶段延迟 = 上阶段完成到该阶段结束
void log_state_latency(PerfCounters *logger, int state) {
 utime_t lat, now = ceph_clock_now();
 lat = now - last_stamp;
 logger->tinc(state, lat);
 last_stamp = now;
}
 

在块存储的使用场景中,除了用户并发IO外,通常用户也会使用dd等串行IO的命令,此时便受限于读写的绝对延迟,扩容加机器、增加线程数等横向扩展的优化便是无效的,所以我们需要关注两方面的延迟:并发IO延迟串行IO延迟

并发IO延迟优化:kv_sync_thread、kv_finalize_thread多线程化;自定义WAL;async read。

串行IO延迟优化:并行提交元数据、数据;将sync操作与其他状态并行处理。

IO保序

保证IO的顺序性以及并发性是分布式存储必然面临的一个问题。因为BlueStore使用异步IO,后提交的IO可能比早提交的IO完成的早,所以更要保证IO的顺序,防止数据发生错乱。客户端可能会对PG中的一个Object连续提交多次读写请求,每次请求对应一个Transaction,在OSD层面通过PGLock将并发的读写请求在PG层面串行化,然后按序依次提交到ObjectStore层,ObjectStore层通过PG的OpSequencer保证顺序处理读写请求

BlueStore写类型有SimpleWrite、DeferredWrite两种,所以我们分析一下SimpleWrite、DeferredWrite下的IO保序问题。

SimpleWrite

因为STATE_AIO_WAIT阶段使用Libaio,所以需要保证PG对应的OpSequencer中的txc按排队的先后顺序依次进入kv_queue被kv_sync_thread处理,也即txc在OpSequencer中的顺序和在kv_queue中的顺序是一致的。

void BlueStore::_txc_finish_io(TransContext *txc)
{
 // 获取txc所属的OpSequencer,并且加锁,保证互斥访问osr
 OpSequencer *osr = txc->osr.get();
 std::lock_guard l(osr->qlock);
 
 // 设置状态机的state为STATE_IO_DONE
 txc->state = TransContext::STATE_IO_DONE;
 
 // 清除txc正在运行的aio
 txc->ioc.running_aios.clear();
 
 // 定位当前txc在osr的位置
 OpSequencer::q_list_t::iterator p = osr->q.iterator_to(*txc);
 
 while (p != osr->q.begin()) {
 --p;
 // 如果前面还有未完成IO的txc,那么需要停止当前txc操作,等待前面txc完成IO。
 // 目的是:确保之前txc的IO都完成。
 if (p->state < TransContext::STATE_IO_DONE) {
 return;
 }
 
 // 前面的txc已经进入大于等于STATE_KV_QUEUED的状态了,那么递增p并退出循环。
 // 目的是:找到状态为STATE_IO_DONE的且在osr中排序最靠前的txc。
 if (p->state > TransContext::STATE_IO_DONE) {
 ++p;
 break;
 }
 }
 
 // 依次处理状态为STATE_IO_DONE的tx
 // 将txc放入kv_sync_thread的kv_queue、kv_queue_unsubmitted队列
 do {
 _txc_state_proc(&*p++);
 } while (p != osr->q.end() && p->state == TransContext::STATE_IO_DONE);
 ......
}
 

DeferredWrite

DeferredWrite在IO的时候也是通过Libaio提交到内核Libaio队列进行写数据,也需要保证IO的顺序性。

相应的数据结构如下:

class BlueStore {
 typedef boost::intrusive::list<
 OpSequencer, boost::intrusive::member_hook<
 OpSequencer, boost::intrusive::list_member_hook<>,
 &OpSequencer::deferred_osr_queue_item>>
 deferred_osr_queue_t;
 
 // osr's with deferred io pending
 deferred_osr_queue_t deferred_queue;
}
 
class OpSequencer {
 DeferredBatch *deferred_running = nullptr;
 DeferredBatch *deferred_pending = nullptr;
}
 
struct DeferredBatch {
 OpSequencer *osr;
 
 // txcs in this batch
 deferred_queue_t txcs;
}
 

BlueStore内部包含一个成员变量deferred_queue;deferred_queue队列包含需要执行DeferredIO的OpSequencer;每个OpSequencer包含deferred_running和deferred_pending两个DeferredBatch类型的变量;DeferredBatch包含一个txc数组。

如果PG有写请求,会在PG对应的OpSequencer中的deferred_pending中排队加入txc,待时机成熟的时候,一次性提交所有txc给Libaio,执行完成后才会进行下一次提交,这样不会导致DeferredIO乱序。

void BlueStore::_deferred_queue(TransContext *txc)
{
 deferred_lock.lock();
 // 排队osr
 if (!txc->osr->deferred_pending && !txc->osr->deferred_running) {
 deferred_queue.push_back(*txc->osr);
 }
 
 // 追加txc到deferred_pending中
 txc->osr->deferred_pending->txcs.push_back(*txc);
 
 _deferred_submit_unlock(txc->osr.get());
 ......
}
 
void BlueStore::_deferred_submit_unlock(OpSequencer *osr)
{
 ......
 // 切换指针,保证每次操作完成后才会进行下一次提交
 osr->deferred_running = osr->deferred_pending;
 osr->deferred_pending = nullptr;
 ......
 
 while (true) {
 ......
 // 准备所有txc的写buffer
 int r = bdev->aio_write(start, bl, &b->ioc, false);
 }
 
 ......
 // 一次性提交所有txc
 bdev->aio_submit(&b->ioc);
}
 

线程队列

线程+队列是实现异步操作的基础。BlueStore的一次IO经过状态机要进入多个队列并被不同的线程处理然后回调,线程+队列是BlueStore事务状态机的重要组成部分。BlueStore中的线程大致有7种。

  • mempool_thread:无队列,后台监控内存的使用情况,超过内存使用的限制便会做trim。
  • aio_thread:队列为Libaio内核queue,收割完成的aio事件。
  • discard_thread:队列为discard_queued,对SSD磁盘上的extent做Trim。
  • kv_sync_thread:队列为kv_queue、deferred_done_queue、deferred_stable_queue,sync元数据和数据。
  • kv_finalize_thread:队列为kv_committing_to_finalize、deferred_stable_to_finalize,执行清理功能。
  • deferred_finisher:调用回调函数提交DeferredIO的请求。
  • finishers:多个回调线程Finisher,通知用户请求完成。

我们主要分析aio_threadkv_sync_threadkv_finalize_thread

aio_thread

aio_thread比较简单,属于KernelDevice模块的,主要作用是收割完成的aio事件,并触发回调函数。

void KernelDevice::_aio_thread() {
 while (!aio_stop) {
 ......
 // 获取完成的aio
 int r = aio_queue.get_next_completed(cct->_conf->bdev_aio_poll_ms, aio, max);
 // 设置flush标志为true。
 io_since_flush.store(true);
 // 获取aio的返回值
 long r = aio[i]->get_return_value();
 ......
 // 调用aio完成的回调函数
 if (ioc->priv) {
 if (--ioc->num_running == 0) {
 aio_callback(aio_callback_priv, ioc->priv);
 }
 } 
 }
}
 

涉及延迟指标state_aio_wait_latstate_io_done_lat

kv_sync_thread

当IO完成后,要么将txc放入队列,要么将dbh放入队列,虽然对应不同队列,但都是由kv_sync_thread执行后续操作。

对于SimpleWrite,都是写新的磁盘block(如果是cow,也是写新的block,只是事务中k/v操作增加对旧的block的回收操作),所以先由aio_thread写block,再由kv_sync_thread同步元信息,无论什么时候挂掉,数据都不会损坏。

对于DeferredWrite,在事务的prepare阶段将需要DeferredWrite的数据作为k/v对(也称为WAL)写入基于RocksDB封装的db_transaction中,此时还在内存,kv_sync_thread第一次的commit操作中,将wal持久化在了k/v系统中,然后进行后续的操作,异常的情况,可以通过回放wal,数据也不会损坏。

kv_sync_thread主要执行的操作为:在Libaio写完数据后,需要通过kv_sync_thread更新元数据k/v,主要包含object的Onode、扩展属性、FreelistManager的磁盘空间信息等等,这些必须按顺序操作。

涉及的队列如下:

  • kv_queue:需要执行commit的txc队列。将kv_queue中的txc存入kv_committing中,并提交给RocksDB,即执行操作db->submit_transaction,设置状态为STATE_KV_SUBMITTED,并将kv_committing中的txc放入kv_committing_to_finalize,等待线程kv_finalize_thread执行。
  • deferred_done_queue:已经完成DeferredIO操作的dbh队列,还没有sync磁盘。这个队列的dbh会有两种结果: 1) 如果没有做flush操作,会将其放入deferred_stable_queue待下次循环继续处理 2) 如果做了flush操作,说明数据已经落盘,即已经是stable的了,直接将其插入deferred_stable_queue队列。这里stable的意思就是数据已经sync到磁盘了,前面RocksDB中记录的wal没用可以删除了。
  • deferred_stable_queue:DeferredIO已经落盘,等待清理RocksDB中的WAL。依次操作dbh中的txc,将RocksDB中的wal删除,然后dbh入队列deferred_stable_to_finalize,等待线程kv_finalize_thread执行。
void BlueStore::_kv_sync_thread() {
 while (true) {
 // 交换指针
 kv_committing.swap(kv_queue);
 kv_submitting.swap(kv_queue_unsubmitted);
 deferred_done.swap(deferred_done_queue);
 deferred_stable.swap(deferred_stable_queue)
 
 // 处理 deferred_done_queue
 if (force_flush) {
 // flush/barrier on block device
 bdev->flush();
 // if we flush then deferred done are now deferred stable
 deferred_stable.insert(deferred_stable.end(),
 deferred_done.begin(),
 deferred_done.end());
 deferred_done.clear();
 }
 
 // 处理 kv_queue
 for (auto txc : kv_committing) {
 int r = cct->_conf->bluestore_debug_omit_kv_commit
 ? 0
 : db->submit_transaction(txc->t);
 _txc_applied_kv(txc);
 }
 
 // 处理 deferred_stable_queue
 for (auto b : deferred_stable) {
 for (auto &txc : b->txcs) {
 get_deferred_key(wt.seq, &key);
 synct->rm_single_key(PREFIX_DEFERRED, key);
 }
 }
 
 // submit synct synchronously (block and wait for it to commit)
 // 同步kv,有设置bluefs_extents、删除wal两种操作
 int r = cct->_conf->bluestore_debug_omit_kv_commit
 ? 0
 : db->submit_transaction_sync(synct);
 
 // 放入finalize线程队列,并通知其处理。
 std::unique_lock m(kv_finalize_lock);
 kv_committing_to_finalize.swap(kv_committing);
 deferred_stable_to_finalize.swap(deferred_stable);
 kv_finalize_cond.notify_one();
 }
}
 

涉及延迟指标state_kv_queued_latstate_kv_committing_latkv_lat

kv_finalize_thread

清理线程,包含两个队列:

  • kv_committing_to_finalize:再次调用_txc_state_proc进入状态机,设置状态为STATE_KV_DONE,并执行回调函数通知用户io操作完成。
  • deferred_stable_to_finalize:遍历deferred_stable中的dbh,调用_txc_state_proc进入状态机,设置状态为STATE_FINISHING,继续调用_txc_finish,设置状态为STATE_DONE,状态机结束,事务完成。
void BlueStore::_kv_finalize_thread() {
 while (true) {
 // 交换指针
 kv_committed.swap(kv_committing_to_finalize);
 deferred_stable.swap(deferred_stable_to_finalize);
 
 // 处理kv_committing_to_finalize队列
 while (!kv_committed.empty()) {
 TransContext *txc = kv_committed.front();
 _txc_state_proc(txc);
 kv_committed.pop_front();
 }
 
 // 处理deferred_stable_to_finalize
 for (auto b : deferred_stable) {
 auto p = b->txcs.begin();
 while (p != b->txcs.end()) {
 TransContext *txc = &*p;
 p = b->txcs.erase(p); // unlink here because
 _txc_state_proc(txc); // this may destroy txc
 }
 delete b;
 }
 deferred_stable.clear();
 }
}
 

涉及延迟指标state_deferred_cleanup_latstate_finishing_lat

IO状态

主要分为SimpleWrite、DeferredWrite、SimpleWrite+DeferredWrite。

已有文章写的不错,这里便不再详细描述(写文章+画图真是体力活: ),可参见:Ceph BlueStore Write Type章节。

最后YY

BlueStore源码分析的系列文章就到此结束了,也算是学习BlueStore的一个总结。貌似还差BlueFS的分析,已有大神写出BlueStore-先进的用户态文件系统《二》-BlueFS。

由于个人水平有限,对BlueStore也仅限于粗浅的理解,如有错误,还请指出。

参考资源

  • Ceph BlueStore
  • ceph bluestore工作流程

你可能感兴趣的:(Ceph专栏,ceph)