Open-falcon aggregator源码解析

aggregator组件负责聚合,即根据定义的指标表达式,聚合该组下所有host的指标值,生成新的指标发送到agent。

agent会将数据发送给transfer,transfer发送给graph,最终由graph存入TSDB。

值得注意的是,aggregator实例对分布式部署的支持有限,因为它每个实例都执行所有的聚合任务,没有进行聚合任务在不同节点的均分,也没有锁机制保障执行1个实例运行。
当然,部署多份实例也不会出现逻辑错误,只是运行了多份相同的任务而已。

1. aggregator的聚合表达式

指标表达式分为分子和分母两部分,每部分都是1个表达式,分别计算出2部分的值,做商即得结果。

# 计算cpu.used.percent的平均值
分子:$(cpu.used.percent)
分母:$#

# 计算磁盘吞吐量的总量
分子:$(disk.io.read_bytes)
分母:1

此外,还能进行更复杂的集合语义:

# 计算disk.io.util大于等于40%的机器个数
分子:$(disk.io.util)>=40
分母:1

# 计算集群diso.io.util大于40%的比率
分子:$(disk.io.util)>40
分母:$#

2. aggregator的聚合模型

聚合模型体现在Cluster结构中:

type Cluster struct {
    .....
    GroupId     int64        //聚合组id
    Numerator   string        //分子表达式
    Denominator string        //分母表达式
    Endpoint    string        //目标endpoint
    Metric      string        //目标metric
    Tags        string        //目标tags
    DsType      string        //目标metric类型
    Step        int            //目标metric的step大小
    ....
}

其中:

  • GroupId: 聚合组id,根据该id可以查询得到该组下所有host;
  • Numberator: 分子表达式,比如$(cpu.used.percent);
  • Denominator: 分母表达式,比如$#;
  • Endpoint: 聚合后的endpoint;
  • Metric: 聚合后的metric;
  • Tags: 聚合后的tags;
  • DsType: 聚合后的metric类型,GAUGE或COUNTER;
  • Step: 聚合后的metric的step大小;

以聚合组内所有host的cpu.used.percent平均值为例:

GroupId     = 900
Numerator     = $(cpu.used.percent)
Denominator = $#
Endpoint     = 84aba056-6e6c-4c53-bfed-4de0729421ef
Metric         = cpu.used.percent
Tags         = null
DsType         = GAUGE
Step         = 60

聚合组内所有host的cpu.used.percent,计算平均值,然后生成endpoint=84aba056-6e6c-4c53-bfed-4de0729421ef,metric=cpu.used.percent, dsType=GAUGE, Step=60的指标。

3. aggregator的聚合流程

Open-falcon aggregator源码解析_第1张图片

  • 所有要聚合的信息存储在db中,每条记录就是上面的一个cluster结构;
  • 对每个聚合记录,启动1个goroutine定期进行聚合;

    • 聚合时,先查询聚合组下所有的host列表
    • 再查询每个host,表达式内相关指标的的最新数据点,比如要聚合cpu.used.percent,就查询所有host最新的cpu.used.percent的最新数据点;
    • 利用最新的数据点,分别计算分子表达式和分母表达式的值,做商得到最终的指标值;
  • 聚合的指标值存储在本地Queue中,有1个goroutine默默的pop出来,HTTP发送给agent;

聚合的入口代码:定期检查新monitorItem和删除老的monitorItem

// modules/aggregator/cron/updater.go
func UpdateItems() {
    for {
        updateItems()
        d := time.Duration(g.Config().Database.Interval) * time.Second
        time.Sleep(d)
    }
}

func updateItems() {
    items, err := db.ReadClusterMonitorItems()
    if err != nil {
        return
    }
    deleteNoUseWorker(items)
    createWorkerIfNeed(items)
}

对于新的monitorItem,会给它启动一个worker:

//modules/aggregator/cron/worker.go
func createWorkerIfNeed(m map[string]*g.Cluster) {
    for key, item := range m {
        //若是新的monitorItem
        if _, ok := Workers[key]; !ok {
            if item.Step <= 0 {
                log.Println("[W] invalid cluster(step <= 0):", item)
                continue
            }
            worker := NewWorker(item)
            Workers[key] = worker
            worker.Start()
        }
    }
}

新的worker启动了1个goroutine,定期进行聚合:

// modules/aggregator/cron/worker.go
func (this Worker) Start() {
    go func() {
        for {
            select {
            case <-this.Ticker.C:
                WorkerRun(this.ClusterItem)
            case <-this.Quit:                
                this.Ticker.Stop()
                return
            }
        }
    }()
}

具体的聚合过程比较复杂,结合注释分析一下:

  • 首先分别解析分子表达式和分母表达式,得到所有相关的metric及其计算方式;
  • 然后查看聚合组下所有的hosts列表;
  • 然后查询hosts列所有相关metric的最近的指标点,存储在valueMap;
  • 对所有hosts分别计算分子和分母的数值,分子/分母即是最终的聚合值;

    • 中间有一个特殊处理,比如$#是算平均值,1是算sum;
// modules/aggregator/cron/run.go
func WorkerRun(item *g.Cluster) {
    .....
    // 解析分子表达式
    //比如 numberatorStr=$(cpu.used.percent)
    //返回 [cpu.used.percent], [], '' 
    numeratorOperands, numeratorOperators, numeratorComputeMode := parse(numeratorStr, needComputeNumerator)
    // 解析分母表达式
    // 比如 $#
    // 返回 [], [], ''
    denominatorOperands, denominatorOperators, denominatorComputeMode := parse(denominatorStr, needComputeDenominator)

    // 查询GroupId内的所有hosts
    hostnames, err := sdk.HostnamesByID(item.GroupId)
    
    // 查询hosts所有相关指标的最近指标点
    valueMap, err := queryCounterLast(numeratorOperands, denominatorOperands, hostnames, now-int64(item.Step*2), now)
    
    var numerator, denominator float64
    var validCount int
    for _, hostname := range hostnames {
        var numeratorVal, denominatorVal float64
        var err error
        //计算分子的聚合值
        if needComputeNumerator {
            numeratorVal, err = compute(numeratorOperands, numeratorOperators, numeratorComputeMode, hostname, valueMap)
            ....
        }
        //计算分母的聚合值
        if needComputeDenominator {
            denominatorVal, err = compute(denominatorOperands, denominatorOperators, denominatorComputeMode, hostname, valueMap)
            .....
        }
        numerator += numeratorVal
        denominator += denominatorVal
        validCount += 1
    }
    
    // $#是算平均值,1是算sum
    if !needComputeDenominator {
        if denominatorStr == "$#" {
            denominator = float64(validCount)
        } else {
            denominator, err = strconv.ParseFloat(denominatorStr, 64)            
        }
    }
    // 最终指标值=分子/分母,放入本地Queue
    sender.Push(item.Endpoint, item.Metric, item.Tags, numerator/denominator, item.DsType, int64(item.Step))
}

sender.Push()将聚合结果放入本地Queue:

// common/sdk/sender/make.go
func Push(endpoint, metric, tags string, val interface{}, counterType string, step_and_ts ...int64) {
    md := MakeMetaData(endpoint, metric, tags, val, counterType, step_and_ts...)
    MetaDataQueue.PushFront(md)
}

后端有1个goroutine默默的pop Queue,然后HTTP发送给agent:

// common/sdk/sender/sender.go
func startSender() {
    for {
        L := MetaDataQueue.PopBack(LIMIT)
        if len(L) == 0 {
            time.Sleep(time.Millisecond * 200)
            continue
        }
        err := PostPush(L)
        ...
    }
}

你可能感兴趣的:(监控工具)