在工作中可能会遇到需要批量插入的场景, 而批量插入的过程具有耗时长的特点, 再此过程很容易出现程序崩溃的情况.为了解决插入大量数据插入后崩溃导致已插入数据无法清理及未插入数据无法筛出的问题, 需要编写一个脚本记录已插入和未插入的数据, 并可以根据记录的数据选择数据回滚或是继续执行任务; 因此需要对批量插入实现事务的机制.
参考数据库的实现原理详见我之前写的文章的Recovery章节1; 事务的实现可以通过redo log和undo log实现, 这篇文章提供了三种算法, 但只有算法3才能实现事务的回滚和继续, 虽然说只有算法三能够达到预期的目标, 但类似上面三种算法的分类, 依旧存在多种写入顺序, 他们在各自的场景中都有各自的优势:
一般来说, 在执行失败之后都是选择未执行的继续执行, 因此这里选择方案1
注意; 倘若要实现事务, 这里的redo
操作和undo
操作需要有幂等性 在MySQL中redo可以用insert on duplicate key
实现, 而undo对应的删除本身就是幂等的
有了redo log和undo log, 系统则可以根据保存的信息恢复或回滚任务, 然而系统恢复和清理过程依赖于系统当前的状态, 而数据的写入和回滚也会导致系统状态的改变; 因此系统设计的基本原则即是将系统的状态保存, 再根据当前的状态选择下一步的操作.
使用文件保存任务的状态, 文件名即任务的状态.
当系统崩溃之后, 重启可以读取到崩溃前的状态, 此时只需要根据下面的状态机图就可以识别出崩溃恢复时对应的状态.
在该系统中, 我使用枚举值表达系统的状态
class ResourceManagerStatus(Enum):
STARTING = "STARTING"
PREPARING = "PREPARING"
INSERTING = "INSERTING"
UNPREPARED = "UNPREPARED"
BLOCKED = "BLOCKED"
CANCELLED = "CANCELLED"
FINISHED = "FINISHED"
CLEANING = "CLEANING"
下面是系统的状态机图, 描述了整个系统的转换过程
该系统主要考虑了两种可能, 一是正常工作的情况, 二是系统崩溃的境况. 为了在系统崩溃后能够识别系统当前的状态, 需要将所有的正常状态用文件保存下来除Starting, 因为它是默认状态; 当系统崩溃后, 即对应上图中的crush
事件, 此时尽管无法修改文件以更新状态, 但在系统重启的时候, 会自动根据crush
箭头的方向设置的对应的状态.
在能够保存状态之后, 则需要对系统的运行状态进行划分, 大致可以分为正常运行的状态和崩溃状态两大类:
由上一章节可以得出, 任务的执行本质上对应了状态的变化, 因此只需要将不同的状态抽象出来则可以控制程序的执行流程, 又因为状态的转换规则具有明显的偏向, 因此使用if
判断状态的转移要远远优于将状态封装成类.
剩下的就是任务的拆分和执行过程, 对应了sql语句的执行.
很明显, 只有可以分批执行的任务才能分批执行, 并且分批redo和undo; 为此可以抽象出一个类DividableDataSource
代表可以分批执行的任务
class MetaInfo(BaseModel):
total: int
batchSize: int
class Log(BaseModel):
ids: Tuple[str, ...]
start: int
end: int
class Config:
frozen = True
class DividableDataSource(ABC):
@abstractmethod
def getMetaInfo(self) -> MetaInfo:
pass
@abstractmethod
def setMetaInfo(self, metaInfo: MetaInfo) -> None:
pass
@abstractmethod
def divide(self) -> Iterable[Log]:
pass
@abstractmethod
def update(self, log: Log) -> None:
pass
@abstractmethod
def rollback(self, log: Log) -> None:
pass
前两个方法是对MetaInfo
的操作, 顾名思义MetaInfo
保存了总任务的元数据, 它需要根据这些进行任务的分批; 具体任务的分批则会调用divide
方法, 它会根据元数据进行分批; 这个分批过程其实并不需要一次性计算出来, 因此可以返回一个迭代器实际操作中可以将分批过程保存在next
中, 甚至可以异步计算next, 这个得带器则包含了分区的信息, 即上面对应的Log
类. 在完成了分区之后, 则需要对redo和undo实现, 他们分别对应了上面的update
和rollback
; 之所以这么命名是想要强调他们的幂等性
在完成了对可以分批处理, 且可以重做/撤销的任务的抽象后, 则可以对具有该特征的所有类进行事务的管理. 它包含了四个核心的方法: prepare
, insert
, rollback
, restore
; 用于管理事务的进行
prepare
方法prepare
方法对应了事务的准备, 即写入undo log的过程
def prepare(self) -> None:
assert_equal(self.status, ResourceManagerStatus.STARTING,
"Can only prepare under status 'STARTING'")
self.__changeStatus(ResourceManagerStatus.PREPARING)
with open("./cache/MetaInfo.json", "w", encoding=config.encoding) as metaInfoOutput:
metaInfoOutput.write(
self.datasource.getMetaInfo().model_dump_json())
with open("./cache/redo.json", "w", encoding=config.encoding) as logOutput:
for line in self.datasource.divide():
logOutput.write(line.model_dump_json()+"\n")
open("./cache/undo.json", "w", encoding=config.encoding).close()
self.__changeStatus(ResourceManagerStatus.INSERTING)
该系统采用json格式记录信息, 并逐行写入信息, 使用json格式记录保证了程序的可测试性, 便于错误的定位. 这个过程也很简单, 就是不要忘了各个状态之间的转换条件即可. 毕竟在插入状态再"准备"以此要重新计算和写入所有的redo log; 这毫无意义.
insert
方法 def insert(self) -> None:
assert_equal(self.status, ResourceManagerStatus.INSERTING,
"can only insert under status 'INSERTING'")
with open("./cache/redo.json", "r", encoding=config.encoding) as redo, open("./cache/undo.json", "a", encoding=config.encoding) as undo:
for logStr in redo:
log = Log.model_validate_json(logStr)
self.datasource.update(log)
undo.write(log.model_dump_json()+"\n")
undo.flush()
self.__changeStatus(ResourceManagerStatus.CLEANING)
在记录了redo log之后, 则可根据redo log中的信息不断进行插入, 插入过程还需要写undo log
以实现可以对已写入数据的回滚, 这里需要注意每写入一条数据需要进行一次**flush
**, 否则系统崩溃C库和操作系统的磁盘缓存都不会写入磁盘, 进而导致数据的丢失
restore
方法 def restore(self) -> None:
# 还没有完成redo log的持久化, 直接删除临时文件
if self.status == ResourceManagerStatus.UNPREPARED:
os.remove("./cache/redo.json")
with open("./cache/MetaInfo.json") as metaInfo:
self.datasource.setMetaInfo(
MetaInfo.model_validate_json(metaInfo.read()))
self.__changeStatus(ResourceManagerStatus.STARTING)
# 已经完成redo log的持久化了, 完成redo log和undo log差的条目即可完成所有的持久化
elif self.status == ResourceManagerStatus.BLOCKED:
self.__changeStatus(ResourceManagerStatus.INSERTING)
redoSet: Set[Log] = set()
undoSet: Set[Log] = set()
with open("./cache/redo.json", "r", encoding=config.encoding) as redo:
for line in redo:
log = Log.model_validate_json(line)
redoSet.add(log)
with open("./cache/undo.json", "r", encoding=config.encoding) as undo:
for line in undo:
log = Log.model_validate_json(line)
undoSet.add(log)
with open("./cache/undo.json", "a", encoding=config.encoding) as undo:
for diff in redoSet - undoSet:
self.datasource.update(diff)
undo.write(diff.model_dump_json() + "\n")
self.__changeStatus(ResourceManagerStatus.CLEANING)
对于失败的任务, 可以根据redo log进行恢复, 这里只需要判断当前状态是不是block
即可判断redo log是否已经成功写入. 如上文所说的, 这里采用了计算redo log和undo log的差值然后再根据差值重新执行, 而非一味利用redo的幂等性执行, 对性能有所优化
rollback
的实现 def rollback(self) -> None:
if self.status in ResourceManagerStatus.halfCommittedStatus():
assert_true(os.path.exists("./cache/undo.json"),
"Can't find undo log")
self.__changeStatus(ResourceManagerStatus.INSERTING)
with open("./cache/undo.json", "r", encoding=config.encoding) as undo:
for line in undo:
undoLog = Log.model_validate_json(line)
self.datasource.rollback(undoLog)
self.__changeStatus(ResourceManagerStatus.CANCELLED)
rollback
的实现相比于restore
就简单很多, 它只需要执行所有redo log中反序列化出的信息即可.
创建测试用表
CREATE TABLE score_source
(
id CHAR(36) PRIMARY KEY,
student_name VARCHAR(64),
course_name VARCHAR(64),
score DOUBLE
);
这里使用Faker
产生随机的数据, 并模拟批量插入的过程
class FakerDataSource(DividableDataSource):
db = pymysql.connect(host=config.dbHost,
user=config.dbUser,
password=config.dbPassword,
database=config.dbName)
def __init__(self, total: int = 0, batchSize: int = 0) -> None:
self.metaInfo = MetaInfo(total=total, batchSize=batchSize)
def getMetaInfo(self) -> MetaInfo:
return self.metaInfo
def setMetaInfo(self, metaInfo: MetaInfo) -> None:
self.metaInfo = metaInfo
def divide(self) -> Iterable[Log]:
start, end = 0, 0
ret: List[Log] = []
while end < self.metaInfo.total:
start, end = end, min(self.metaInfo.total,
end+self.metaInfo.batchSize)
ret.append(Log(ids=tuple(str(uuid.uuid1())
for _ in range(start, end)), start=start, end=end))
return ret
def update(self, log: Log) -> None:
cursor = self.db.cursor()
for id in log.ids:
cursor.execute(f"""INSERT INTO score_source (id, student_name, course_name, score) VALUE ('{id}', '{faker.name()}', '{faker.job()}', {faker.random_int(0, 10000)/100})
ON DUPLICATE KEY UPDATE student_name='{faker.name()}',
course_name='{faker.job()}',
score={faker.random_int(0, 10000)/100}""")
self.db.commit()
def rollback(self, log: Log) -> None:
cursor = self.db.cursor()
for id in log.ids:
cursor.execute(f"""DELETE
FROM score_source
WHERE id ='{id}'""")
self.db.commit()
这里通过insert on duplicate key update
实现了redo的幂等性, delete
本身则具有幂等性. 对于需要持久化的信息, 使用了uuid
来保存, 这样便可以根据uuid找到已经插入或者需要回滚的数据.
下面是几个简单的测试用例, 分别测试了普通插入/恢复/回滚的功能:
class TransactionTest(unittest.TestCase):
def setUp(self) -> None:
db.cursor().execute("TRUNCATE score_source;")
db.commit()
def test_shouldPrepared(self) -> None:
cursor = db.cursor()
rm = ResourceManager(FakerDataSource(config.total, config.batchSize))
rm.prepare()
self.assertTrue(os.path.exists("./cache/INSERTING"),
"status should be 'INSERTING'")
self.assertTrue(os.path.exists("./cache/redo.json"),
"redo log should be created")
self.assertTrue(os.path.exists("./cache/undo.json"),
"undo log should be created")
self.assertTrue(os.path.exists("./cache/MetaInfo.json"),
"MetaInfo file should be created")
with open("./cache/redo.json") as redo:
redoLogSize = sum(1 for _ in redo)
self.assertEqual(redoLogSize, math.ceil(config.total / config.batchSize),
f"size of redo log should be {math.ceil(config.total / config.batchSize)}")
with open("./cache/undo.json") as undo:
undoLogSize = sum(1 for _ in undo)
self.assertEqual(undoLogSize, 0,
f"size of redo log should be {0}")
cursor.execute("SELECT COUNT(*) FROM score_source;")
self.assertEqual(cursor.fetchone()[
0], 0, "nothing should be insert right now")
# NOTICE: this should be executed after test_shouldPrepared
def test_shouldRestore(self) -> None:
cursor = db.cursor()
rm = ResourceManager(FakerDataSource(config.total, config.batchSize))
rm.restore()
cursor.execute("SELECT COUNT(*) FROM score_source;")
self.assertEqual(cursor.fetchone()[
0], config.total, "all data should be inserted")
rm.restore()
cursor.execute("SELECT COUNT(*) FROM score_source;")
self.assertEqual(cursor.fetchone()[
0], config.total, "redo should be idempotent")
with open("./cache/redo.json") as redo:
redoLogSize = sum(1 for _ in redo)
self.assertEqual(redoLogSize, math.ceil(config.total / config.batchSize),
f"size of redo log should be {math.ceil(config.total / config.batchSize)}")
with open("./cache/undo.json") as undo:
undoLogSize = sum(1 for _ in undo)
self.assertEqual(undoLogSize, math.ceil(config.total / config.batchSize),
f"size of redo log should be {math.ceil(config.total / config.batchSize)}")
self.assertTrue(os.path.exists("./cache/CLEANING"),
"status should be CLEANING")
rm.clean()
self.assertEqual(len(os.listdir("./cache")), 0,
"all temporary file should be cleaned")
def test_shouldRollback(self) -> None:
cursor = db.cursor()
rm = ResourceManager(FakerDataSource(config.total, config.batchSize))
rm.prepare()
rm.insert()
cursor.execute("SELECT COUNT(*) FROM score_source;")
self.assertEqual(cursor.fetchone()[
0], config.total, "data should be inserted")
rm.rollback()
db.commit()
cursor.execute("SELECT COUNT(*) FROM score_source;")
self.assertEqual(cursor.fetchone()[
0], 0, "should rollback")
rm.rollback()
cursor.execute("SELECT COUNT(*) FROM score_source;")
self.assertEqual(cursor.fetchone()[
0], 0, "rollback should be idempotent")
rm.clean()
def tearDown(self) -> None:
db.cursor().execute("TRUNCATE score_source;")
db.commit()
DividableDataSource#divide
改为异步生成的迭代器; 这样便可以延迟分片的计算, 以提高性能【精选】【数据库】数据库笔记_is a software package,designed to store,retrieve,q-CSDN博客 ↩︎