本博客与RayXXZhang的博客保持同步更新,转载请注明来自RayXXZhang的博客-nsq源码阅读笔记之nsqd(三)——diskQueue
diskQueue
是backendQueue
接口的一个实现。backendQueue
的作用是在实现在内存go channel缓冲区满的情况下对消息的处理的对象。
除了diskQueue
外还有dummyBackendQueue
实现了backendQueue
接口。
对于临时(#ephemeral结尾)Topic/Channel,在创建时会使用dummyBackendQueue
初始化backend
,
dummyBackendQueue
只是为了统一临时和非临时Topic/Channel而写的,它只是实现了接口,不做任何实质上的操作,
因此在内存缓冲区满时直接丢弃消息。这也是临时Topic/Channel和非临时的一个比较大的差别。
每个非临时Topic/Channel,创建的时候使用diskQueue
初始化backend
,diskQueue
的功能是将消息写入磁盘进行持久化,
并在需要时从中取出消息重新向客户端投递。
diskQueue
的实现在nsqd/disk_queue.go
中。需要注意一点,查找diskQueue
中的函数的调用可能不会返回正确的结果,
因为diskQueue
对外是以backendQueue
形式存在,因此查找diskQueue
的函数的调用情况时应当查找backendQueue
中相应函数的调用。
diskQueue
的创建和初始化// newDiskQueue instantiates a new instance of diskQueue, retrieving metadata
// from the filesystem and starting the read ahead goroutine
func newDiskQueue(name string, dataPath string, maxBytesPerFile int64,
minMsgSize int32, maxMsgSize int32,
syncEvery int64, syncTimeout time.Duration,
logger logger) BackendQueue {
d := diskQueue{
name: name,
dataPath: dataPath,
maxBytesPerFile: maxBytesPerFile,
minMsgSize: minMsgSize,
maxMsgSize: maxMsgSize,
readChan: make(chan []byte),
writeChan: make(chan []byte),
writeResponseChan: make(chan error),
emptyChan: make(chan int),
emptyResponseChan: make(chan error),
exitChan: make(chan int),
exitSyncChan: make(chan int),
syncEvery: syncEvery,
syncTimeout: syncTimeout,
logger: logger,
}
// no need to lock here, nothing else could possibly be touching this instance
err := d.retrieveMetaData()
if err != nil && !os.IsNotExist(err) {
d.logf("ERROR: diskqueue(%s) failed to retrieveMetaData - %s", d.name, err)
}
go d.ioLoop()
return &d
}
diskQueue
的获得是通过newDiskQueue
,该函数比较简单,通过传入的参数创建一个dispQueue
,
然后通过retrieveMetaData
函数获取之前与该diskQueue
相关联的Topic/Channel已经持久化的信息。最后启动ioLoop
循环处理消息。
// retrieveMetaData initializes state from the filesystem
func (d *diskQueue) retrieveMetaData() error {
var f *os.File
var err error
fileName := d.metaDataFileName()
f, err = os.OpenFile(fileName, os.O_RDONLY, 0600)
if err != nil {
return err
}
defer f.Close()
var depth int64
_, err = fmt.Fscanf(f, "%d\n%d,%d\n%d,%d\n",
&depth,
&d.readFileNum, &d.readPos,
&d.writeFileNum, &d.writePos)
if err != nil {
return err
}
atomic.StoreInt64(&d.depth, depth)
d.nextReadFileNum = d.readFileNum
d.nextReadPos = d.readPos
return nil
}
retrieveMetaData
函数从磁盘中恢复diskQueue
的状态。diskQueue
会定时将自己的状态备份到文件中,
文件名由metaDataFileName
函数确定。retrieveMetaData
函数同样通过metaDataFileName
函数获得保存状态的文件名并打开。
该文件只有三行,格式为%d\n%d,%d\n%d,%d\n
,第一行保存着该diskQueue
中消息的数量(depth
),
第二行保存readFileNum
和readPos
,第三行保存writeFileNum
和writePos
。
这里不太理解的一个地方是d.depth
通过一个临时变量去获取然后通过atomic.StoreInt64
保存。个人觉得没有必要这么做。
当然作者在nsqd: diskqueue corruption and depth accounting这个Pull Request中也提到:
I dont believe that this should be strictly necessary because
retrieveMetaData
is only ever called inNewDiskQueue
and theioLoop
goroutine is launched after that call (which according to the go memory model is safe).However, I’m not 100% sure about interactions between the go memory model, go-routines, and the combined use of atomic and non-atomic operations (which is what this was relying on before this change… i.e. this was the only mutation of
d.depth
that was not using atomic ops).
因此,这只是个比较保险的做法,并不一定意味着直接保存到d.depth
就不安全。
// persistMetaData atomically writes state to the filesystem
func (d *diskQueue) persistMetaData() error {
var f *os.File
var err error
fileName := d.metaDataFileName()
tmpFileName := fmt.Sprintf("%s.%d.tmp", fileName, rand.Int())
// write to tmp file
f, err = os.OpenFile(tmpFileName, os.O_RDWR|os.O_CREATE, 0600)
if err != nil {
return err
}
_, err = fmt.Fprintf(f, "%d\n%d,%d\n%d,%d\n",
atomic.LoadInt64(&d.depth),
d.readFileNum, d.readPos,
d.writeFileNum, d.writePos)
if err != nil {
f.Close()
return err
}
f.Sync()
f.Close()
// atomically rename
return atomicRename(tmpFileName, fileName)
}
与retrieveMetaData
相对应的是persistMetaData
函数,这个函数将运行时的元数据保存到文件用于下次重新构建diskQueue
时的恢复。
逻辑基本与retrieveMetaData
,此处不再赘述。
diskQueue
的消息循环// ioLoop provides the backend for exposing a go channel (via ReadChan())
// in support of multiple concurrent queue consumers
//
// it works by looping and branching based on whether or not the queue has data
// to read and blocking until data is either read or written over the appropriate
// go channels
//
// conveniently this also means that we're asynchronously reading from the filesystem
func (d *diskQueue) ioLoop() {
var dataRead []byte
var err error
var count int64
var r chan []byte
syncTicker := time.NewTicker(d.syncTimeout)
for {
// dont sync all the time :)
if count == d.syncEvery {
count = 0
d.needSync = true
}
if d.needSync {
err = d.sync()
if err != nil {
d.logf("ERROR: diskqueue(%s) failed to sync - %s", d.name, err)
}
}
if (d.readFileNum < d.writeFileNum) || (d.readPos < d.writePos) {
if d.nextReadPos == d.readPos {
dataRead, err = d.readOne()
if err != nil {
d.logf("ERROR: reading from diskqueue(%s) at %d of %s - %s",
d.name, d.readPos, d.fileName(d.readFileNum), err)
d.handleReadError()
continue
}
}
r = d.readChan
} else {
r = nil
}
select {
// the Go channel spec dictates that nil channel operations (read or write)
// in a select are skipped, we set r to d.readChan only when there is data to read
case r <- dataRead:
// moveForward sets needSync flag if a file is removed
d.moveForward()
case <-d.emptyChan:
d.emptyResponseChan <- d.deleteAllFiles()
count = 0
case dataWrite := <-d.writeChan:
count++
d.writeResponseChan <- d.writeOne(dataWrite)
case <-syncTicker.C:
if count > 0 {
count = 0
d.needSync = true
}
case <-d.exitChan:
goto exit
}
}
exit:
d.logf("DISKQUEUE(%s): closing ... ioLoop", d.name)
syncTicker.Stop()
d.exitSyncChan <- 1
}
ioLoop
函数实现了diskQueue
的消息循环,diskQueue
的定时操作和读写操作的核心都在这个函数中完成。
函数首先使用time.NewTicker(d.syncTimeout)
定义了syncTicker
变量,syncTicker
的类型是time.Ticker
,
每隔d.syncTimeout
时间就会在syncTicker.C
这个go channel产生一个消息。
通过select syncTicker.C
能实现至多d.syncTimeout
时间就跳出select块一次,这种方式相当于一个延时的default
子句。
在ioLoop
中,通过这种方式,就能在一个goroutine中既实现消息的接收又实现定时任务(跳出select后执行定时任务,然后在进入select)。
有点类似于定时的轮询。
ioLoop
的定时任务是调用sync
函数刷新文件,防止突然结束程序后内存中的内容未被提交到磁盘,导致内容丢失。
控制是否需要同步的变量是d.needSync
,该变量在一次sync
后会被置为false
,在许多需要刷新文件的地方会被置为true
。
在ioLoop
中,d.needSync
变量还跟刷新计数器count
变量有关,count
值的变化规则如下:
count
就会被自增。count
达到d.syncEvery
时,会将count
重置为0并且将d.needSync
置为true
,随后进行文件的刷新。emptyChan
收到消息时,count
会被重置为0,因为文件已经被删除了,所有要重置刷新计数器。syncTicker.C
收到消息后,会将count
重置为0,并且将d.needSync
置为true
。也就是至多d.syncTimeout
时间刷新一次文件。ioLoop
还定时检测当前是否有数据需要被读取,如果(d.readFileNum < d.writeFileNum) || (d.readPos < d.writePos)
和`d.nextReadPos == d.readPos
这两个条件成立,则执行d.readOne()
并将结果放入dataRead
中,然后设置r
为d.readChan
。
如果条件不成立,则将r
置为空值nil
。随后的select语句中有case r <- dataRead:
这样一个分支,在注释中作者写了这是一个Golang的特性,
即:如果r
不为空,则会将dataRead
送入go channel。进入d.readChan
的消息通过ReadChan
函数向外暴露,最终被Topic/Channel的消息循环读取。
而如果r
为空,则这个分支会被跳过。这个特性的使用统一了select的逻辑,简化了当数据为空时的判断。
diskQueue
的写操作// Put writes a []byte to the queue
func (d *diskQueue) Put(data []byte) error {
d.RLock()
defer d.RUnlock()
if d.exitFlag == 1 {
return errors.New("exiting")
}
d.writeChan <- data
return <-d.writeResponseChan
}
写操作的对外接口是Put
函数,该函数比较简单,加锁,并且将数据放入d.writeChan
,等待d.writeResponseChan
的结果后返回。
d.writeChan
的接收在ioLoop
中select的一个分支,处理时调用writeOne
函数,并将处理结果放入d.writeResponseChan
。
// writeOne performs a low level filesystem write for a single []byte
// while advancing write positions and rolling files, if necessary
func (d *diskQueue) writeOne(data []byte) error {
var err error
if d.writeFile == nil {
curFileName := d.fileName(d.writeFileNum)
d.writeFile, err = os.OpenFile(curFileName, os.O_RDWR|os.O_CREATE, 0600)
if err != nil {
return err
}
d.logf("DISKQUEUE(%s): writeOne() opened %s", d.name, curFileName)
if d.writePos > 0 {
_, err = d.writeFile.Seek(d.writePos, 0)
if err != nil {
d.writeFile.Close()
d.writeFile = nil
return err
}
}
}
dataLen := int32(len(data))
if dataLen < d.minMsgSize || dataLen > d.maxMsgSize {
return fmt.Errorf("invalid message write size (%d) maxMsgSize=%d", dataLen, d.maxMsgSize)
}
d.writeBuf.Reset()
err = binary.Write(&d.writeBuf, binary.BigEndian, dataLen)
if err != nil {
return err
}
_, err = d.writeBuf.Write(data)
if err != nil {
return err
}
// only write to the file once
_, err = d.writeFile.Write(d.writeBuf.Bytes())
if err != nil {
d.writeFile.Close()
d.writeFile = nil
return err
}
totalBytes := int64(4 + dataLen)
d.writePos += totalBytes
atomic.AddInt64(&d.depth, 1)
if d.writePos > d.maxBytesPerFile {
d.writeFileNum++
d.writePos = 0
// sync every time we start writing to a new file
err = d.sync()
if err != nil {
d.logf("ERROR: diskqueue(%s) failed to sync - %s", d.name, err)
}
if d.writeFile != nil {
d.writeFile.Close()
d.writeFile = nil
}
}
return err
}
writeOne
函数是写操作的最终执行部分,负责将消息写入磁盘。函数逻辑比较简单。消息写入步骤如下:
d.fileName(d.writeFileNum)
获得文件名,并创建文件d.writePos
定位本次写的位置d.writePos
后移4 + 消息长度
作为下次写入位置。加4是因为消息长度本身也占4字节。d.writePos
是否大于每个文件的最大字节数d.maxBytesPerFile
,如果是,则将d.writeFileNum
加1, d.writePos
。这个操作的目的是为了防止单个文件过大。sync
函数对当前文件进行同步。diskQueue
的读操作// readOne performs a low level filesystem read for a single []byte
// while advancing read positions and rolling files, if necessary
func (d *diskQueue) readOne() ([]byte, error) {
var err error
var msgSize int32
if d.readFile == nil {
curFileName := d.fileName(d.readFileNum)
d.readFile, err = os.OpenFile(curFileName, os.O_RDONLY, 0600)
if err != nil {
return nil, err
}
d.logf("DISKQUEUE(%s): readOne() opened %s", d.name, curFileName)
if d.readPos > 0 {
_, err = d.readFile.Seek(d.readPos, 0)
if err != nil {
d.readFile.Close()
d.readFile = nil
return nil, err
}
}
d.reader = bufio.NewReader(d.readFile)
}
err = binary.Read(d.reader, binary.BigEndian, &msgSize)
if err != nil {
d.readFile.Close()
d.readFile = nil
return nil, err
}
if msgSize < d.minMsgSize || msgSize > d.maxMsgSize {
// this file is corrupt and we have no reasonable guarantee on
// where a new message should begin
d.readFile.Close()
d.readFile = nil
return nil, fmt.Errorf("invalid message read size (%d)", msgSize)
}
readBuf := make([]byte, msgSize)
_, err = io.ReadFull(d.reader, readBuf)
if err != nil {
d.readFile.Close()
d.readFile = nil
return nil, err
}
totalBytes := int64(4 + msgSize)
// we only advance next* because we have not yet sent this to consumers
// (where readFileNum, readPos will actually be advanced)
d.nextReadPos = d.readPos + totalBytes
d.nextReadFileNum = d.readFileNum
// TODO: each data file should embed the maxBytesPerFile
// as the first 8 bytes (at creation time) ensuring that
// the value can change without affecting runtime
if d.nextReadPos > d.maxBytesPerFile {
if d.readFile != nil {
d.readFile.Close()
d.readFile = nil
}
d.nextReadFileNum++
d.nextReadPos = 0
}
return readBuf, nil
}
消息读取对外暴露的是一个go channel,而数据的最终来源是ioLoop
中调用的readOne
函数。readOne
函数逻辑跟writeOne
类似,
只是把写操作换成了读操作,唯一差异较大的地方是d.nextReadPos
和d.nextReadFileNum
这两个变量的使用。
在写操作时,如果写入成功,则可以直接将写入位置和写入文件更新。但是对于读操作来说,由于读取的目的是为了向客户端投递,
因此无法保证一定能投递成功。因此需要使用next开头的两个变量来保存成功后需要读的位置,如果投递没有成功,
则继续使用当前的读取位置将再一次尝试将消息投递给客户端。
func (d *diskQueue) moveForward() {
oldReadFileNum := d.readFileNum
d.readFileNum = d.nextReadFileNum
d.readPos = d.nextReadPos
depth := atomic.AddInt64(&d.depth, -1)
// see if we need to clean up the old file
if oldReadFileNum != d.nextReadFileNum {
// sync every time we start reading from a new file
d.needSync = true
fn := d.fileName(oldReadFileNum)
err := os.Remove(fn)
if err != nil {
d.logf("ERROR: failed to Remove(%s) - %s", fn, err)
}
}
d.checkTailCorruption(depth)
}
当消息投递成功后,则使用moveForward
函数将保存在d.nextReadPos
和d.nextReadFileNum
中的值取出,
赋值给d.readPos
和d.readFileNum
,moveForward
函数还负责清理已经读完的旧文件。最后,调用checkTailCorruption
函数检查文件是否有错,
如果出现错误,则调用skipToNextRWFile
重置读取和写入的文件编号和位置。
diskQueue
中的其他函数diskQueue
中还有与错误处理相关的handleReadError
,与关闭diskQueue
相关的Close
,Delete
,exit
,Empty
和deleteAllFiles
等,
函数,逻辑较简单,不再专门分析。
diskQueue
总结diskQueue
主要逻辑是对磁盘的读写操作,较为琐碎但没有复杂的架构。
其中消息循环的思路和读写过程周全的考虑都值得学习的。