Log4j2 自定义 Appender

最近由于项目需要开始捣鼓项目组日志系统,日志系统中日志打印采用的是log4j2,同时需要支持公司日志采集需求,所以也会用到公司扩展的appender。之前做过的项目有有日志打印的功能也是采用log4j2组件。这篇文章主要是对这个组件的各个属性进行下总结,同时介绍下如何基于log4j2的Appender自定义Appender,满足项目需求。后边也会陆续的对log4j2的原理、性能等进行分析......
虽然log4j2自带了很多种Appender,通过这些Appender可以将日志输出到文件、DB、ES,但是有时候需要自定义Appender来满足业务需求,将日志输出到指定的位置。例如log4j2就没有为Scribe添加appender。

配置文件节点解析

(1). 根节点Configuration有两个属性:status和monitorinterval,有两个子节点:Appenders和Loggers(表明可以定义多个Appender和Logger)。

status用来指定log4j本身的打印日志的级别。monitorinterval用于指定log4j自动重新配置的监测间隔时间,单位是s,最小是5s,例如:monitorInterval=”600” 指log4j2每隔600秒(10分钟),自动监控该配置文件是否有变化,如果变化,则自动根据文件内容重新配置。

(2).Appenders节点,常见的有三种子节点:Console、RollingFile、File。

Console节点用来定义输出到控制台的Appender。

name:指定Appender的名字。

target:SYSTEM_OUT 或 SYSTEM_ERR,一般只设置默认:SYSTEM_OUT。

PatternLayout:输出格式,不设置默认为:%m%n。

如:

RollingFile节点用来定义超过指定大小自动删除旧的创建新的的Appender。

name:指定Appender的名字。

fileName:指定输出日志的目的文件带全路径的文件名。

PatternLayout:输出格式,不设置默认为:%m%n。

filePattern:指定新建日志文件的名称格式。

Policies:指定滚动日志的策略,就是什么时候进行新建日志文件输出日志。

TimeBasedTriggeringPolicy:Policies子节点,基于时间的滚动策略,interval属性用来指定多久滚动一次,>默认是1 hour。modulate=true用来调整时间:比如现在是早上3am,interval是4,那么第一次滚动是在>4am,接着是8am,12am...而不是7am。

SizeBasedTriggeringPolicy:Policies子节点,基于指定文件大小的滚动策略,size属性用来定义每个日志文>件的大小。

DefaultRolloverStrategy:用来指定同一个文件夹下最多有几个日志文件时开始删除最旧的,创建新的(通过>max属性)。

如:

File节点用来定义输出到指定位置的文件的Appender。
name:指定Appender的名字。

fileName:指定输出日志的目的文件带全路径的文件名。

PatternLayout:输出格式,不设置默认为:%m%n。

相对RollingFile来说File在项目中用的比较少。
(3).Loggers节点,常见的有两种:Root和Logger。

Root节点用来指定项目的根日志,如果没有单独指定Logger,那么就会默认使用该Root日志输出

level:日志输出级别,共有8个级别,按照从低到高为:All < Trace < Debug < Info < Warn < Error < Fatal >< OFF。

AppenderRef:Root的子节点,用来指定该日志输出到哪个Appender。

Logger节点用来单独指定日志的形式,比如要为指定包下的class指定不同的日志级别等。

level:日志输出级别,共有8个级别,按照从低到高为:All < Trace < Debug < Info < Warn < Error < Fatal < OFF。

name:用来指定该Logger所适用的类或者类所在的包全路径,继承自Root节点。

AppenderRef:Logger的子节点,用来指定该日志输出到哪个Appender,如果没有指定,就会默认继承自Root。如果指定了,那么会在指定的这个Appender和Root的Appender中都会输出,此时我们可以设置Logger的additivity="false"只在自定义的Appender中进行输出。

(4).关于日志level
共有8个级别,按照从低到高为:All < Trace < Debug < Info < Warn < Error < Fatal < OFF。

All:最低等级的,用于打开所有日志记录.

Trace:是追踪,就是程序推进以下,你就可以写个trace输出,所以trace应该会特别多,不过没关系,我们>可以设置最低日志级别不让他输出。

Debug:指出细粒度信息事件对调试应用程序是非常有帮助的。

Info:消息在粗粒度级别上突出强调应用程序的运行过程。

Warn:输出警告及warn以下级别的日志。

Error:输出错误信息日志。

Fatal:输出每个严重的错误事件将会导致应用程序的退出的日志。

OFF:最高等级的,用于关闭所有日志记录。

程序会打印高于或等于所设置级别的日志,设置的日志等级越高,打印出来的日志就越少。

  
            
                ${pattern}
            
        

package com.dav.elasticsearch.utils.log4j2;

import com.dfssi.common.Dates;
import com.dfssi.common.JavaOps;
import com.google.common.collect.HashMultimap;
import com.google.common.collect.Maps;
import org.apache.logging.log4j.Level;
import org.apache.logging.log4j.core.Filter;
import org.apache.logging.log4j.core.Layout;
import org.apache.logging.log4j.core.LogEvent;
import org.apache.logging.log4j.core.appender.AbstractAppender;
import org.apache.logging.log4j.core.config.plugins.Plugin;
import org.apache.logging.log4j.core.config.plugins.PluginAttribute;
import org.apache.logging.log4j.core.config.plugins.PluginElement;
import org.apache.logging.log4j.core.config.plugins.PluginFactory;
import org.apache.logging.log4j.message.MapMessage;
import org.elasticsearch.action.bulk.BackoffPolicy;
import org.elasticsearch.action.bulk.BulkProcessor;
import org.elasticsearch.action.bulk.BulkRequest;
import org.elasticsearch.action.bulk.BulkResponse;
import org.elasticsearch.action.index.IndexRequestBuilder;
import org.elasticsearch.client.transport.TransportClient;
import org.elasticsearch.common.settings.Settings;
import org.elasticsearch.common.transport.TransportAddress;
import org.elasticsearch.common.unit.ByteSizeUnit;
import org.elasticsearch.common.unit.ByteSizeValue;
import org.elasticsearch.common.unit.TimeValue;
import org.elasticsearch.transport.client.PreBuiltTransportClient;

import java.io.Serializable;
import java.net.InetAddress;
import java.util.Date;
import java.util.Map;
import java.util.Properties;
import java.util.Set;


@Plugin(name = "EsAppender", category = "Core", elementType = "appender", printObject = true)
public class EsAppender extends AbstractAppender {

    private Config config;
    private TransportClient client;
    private volatile BulkProcessor bulkProcessor;

    protected EsAppender(Config config, Filter filter,
                              Layout layout) {
        super(config.name, filter, layout);
        this.config = config;
        LOGGER.info(String.format("Generated EsAppender: \n\t %s ", config));
        initEsClient();

    }

    private void initEsClient(){
        try {
            Map esConf = config.esConf;
            String value = esConf.get("client.transport.sniff");
            boolean sniff = false;
            esConf.remove("client.transport.sniff");
            if("true".equalsIgnoreCase(value))sniff = true;

            value = esConf.get("client.transport.ping_timeout");
            String pingTimeout = "120s";
            esConf.remove("client.transport.ping_timeout");
            if(value != null) pingTimeout = value;

            Settings.Builder builder = Settings.builder()
                    .put("client.transport.sniff", sniff)
                    .put("client.transport.ping_timeout", pingTimeout)
                    //.put("client.transport.ignore_cluster_name", true) // 忽略集群名字验证, 打开后集群名字不对也能连接上
                    .put("cluster.name", config.cluster);

            Properties properties =  new Properties();
            properties.putAll(esConf);
            builder.putProperties(esConf, key -> {return key;});


            Settings settings = builder.build();
            client = new PreBuiltTransportClient(settings);

            Set> entries = config.hostAndPorts.entries();
            for (Map.Entry entry : entries) {
                client.addTransportAddress(
                        new TransportAddress(InetAddress.getByName(entry.getKey()), entry.getValue()));
            }
        } catch (Exception e) {
            throw new IllegalArgumentException(String.format("构建es客户端失败:\n\t %s", config), e);
        }
    }

    private void initBulkProcessor() {
        bulkProcessor = BulkProcessor.builder(
                client,
                new BulkProcessor.Listener() {
                    @Override
                    public void beforeBulk(long executionId,
                                           BulkRequest request) {
                    }

                    @Override
                    public void afterBulk(long executionId,
                                          BulkRequest request,
                                          BulkResponse response) {
                        if (response.hasFailures()) {
                            LOGGER.error(String.format("executionId = %s, FailureMessage = %s",
                                    executionId, response.buildFailureMessage()));
                        }
                    }

                    @Override
                    public void afterBulk(long executionId,
                                          BulkRequest request,
                                          Throwable failure) {
                        LOGGER.error(String.format("executionId = %s", executionId), failure);
                    }
                })
                // 5k次请求执行一次bulk
                .setBulkActions(config.maxActionsPerBulkRequest)
                // 1mb的数据刷新一次bulk
                .setBulkSize(config.getMaxVolumePerBulkRequest())
                //固定60s必须刷新一次
                .setFlushInterval(config.getFlushInterval())
                // 并发请求数量, 0不并发, 1并发允许执行
                .setConcurrentRequests(config.maxConcurrentBulkRequests)
                // 设置退避, 100ms后执行, 最大请求3次
                .setBackoffPolicy(
                        BackoffPolicy.exponentialBackoff(TimeValue.timeValueMillis(200), 5))
                .build();

    }

    @Override
    public void append(LogEvent event) {
        if (event.getLevel().isMoreSpecificThan(config.level)) {
            //写入es
        }
    }


    public void writeToEs(LogEvent event){

        String index = config.indexCreateRule.getIndexName(config.index, new Date(event.getTimeMillis()));

        Map record = Maps.newHashMap();
        if (event.getMessage() instanceof MapMessage) {
            record.putAll(((MapMessage)event.getMessage()).getData());
        } else {
            record.put("message", event.getMessage().getFormattedMessage());
        }
        record.put("name", config.name);
        record.put("host",  config.publisher);
        record.put("ti", event.getTimeMillis());
        record.put("", Dates.long2Str(event.getTimeMillis(),"yyyy-MM-dd HH:mm:ss"));
        record.put("level", event.getLevel().toString());
        record.put("logger", event.getLoggerName());
        record.put("loggerFQDN", event.getLoggerFqcn());
        if (event.getMarker() !=null ) {
            record.put("marker", event.getMarker().toString());
        };
      /*  record.put("thread", ievent.threadName);
        if (event.getSource()!=null) {
            record.put("stack",event.getSource().toString());
        };
        if (event.getThrown()!=null) {
            record.put("throw",convThrowable(event.getThrown()));
        };*/
        record.put("context", event.getContextMap());
        IndexRequestBuilder d=      client.prepareIndex(index, config.type).setSource(record);

    }


    @PluginFactory
    public static synchronized EsAppender createAppender(
            @PluginAttribute(value = "name", defaultString = "elasticsearchAppender") String name,
            @PluginAttribute(value = "publisher", defaultString = "default") String publisher,
            @PluginAttribute(value = "servers", defaultString = "localhost:9300") String servers,
            @PluginAttribute(value = "cluster", defaultString = "es") String cluster,
            @PluginAttribute(value = "esConf") String esConf,
            @PluginAttribute(value = "index", defaultString ="logstash") String index,
            @PluginAttribute(value = "indexCreateRule", defaultString = "none") String indexCreateRule,
            @PluginAttribute(value = "type", defaultString = "logs") String type,
            @PluginAttribute(value = "maxActionsPerBulkRequest", defaultInt = 100) int maxActionsPerBulkRequest,
            @PluginAttribute(value = "maxConcurrentBulkRequests", defaultInt = 1) int maxConcurrentBulkRequests,
            @PluginAttribute(value = "maxVolumePerBulkRequest", defaultString = "10m") String maxVolumePerBulkRequest,
            @PluginAttribute(value = "flushInterval", defaultString = "5s") String flushInterval,
            @PluginAttribute(value = "ignoreExceptions", defaultBoolean = false) boolean ignoreExceptions,
            @PluginAttribute(value = "level") Level level,
            @PluginElement("Filters") Filter filter) {

        if(level == null)level = Level.INFO;

        Config config = new Config();
        config.name = name;
        config.publisher = publisher;
        config.cluster = cluster;
        config.index = index;
        config.indexCreateRule = IndexCreateRule.getRule(indexCreateRule);
        config.type = type;
        config.maxActionsPerBulkRequest = maxActionsPerBulkRequest;
        config.maxConcurrentBulkRequests = maxConcurrentBulkRequests;
        config.maxVolumePerBulkRequest = maxVolumePerBulkRequest;
        config.flushInterval = flushInterval;
        config.ignoreExceptions = ignoreExceptions;
        config.level = level;

        config.hostAndPorts = HashMultimap.create();
        String[] split = servers.split(",");
        try {
            String[] kv;
            for(String hp : split){
                kv = hp.split(":");
                if(kv.length == 2){
                    config.hostAndPorts.put(kv[0], Integer.parseInt(kv[1]));
                }
            }
        } catch (NumberFormatException e) {
          throw new IllegalArgumentException(String.format("servers:%s格式有误, 示例:host1:port1,host2:port2", servers), e);
        }

        config.esConf = Maps.newHashMap();
        if(esConf != null){
            split = esConf.split(",");
            String[] kv;
            for(String hp : split) {
                kv = hp.split(":");
                if(kv.length == 2){
                    config.esConf.put(kv[0], kv[1]);
                }
            }
        }

        return new EsAppender(config,filter,null);
    }

    private static class Config {
        String name;
        String publisher;

        String cluster;
        Map esConf;
        HashMultimap hostAndPorts;
        String index;
        IndexCreateRule indexCreateRule;
        String type;
        int maxActionsPerBulkRequest;
        int maxConcurrentBulkRequests;
        String maxVolumePerBulkRequest;
        String flushInterval;

        boolean ignoreExceptions;
        Level level;

        public ByteSizeValue getMaxVolumePerBulkRequest(){
            long kb = JavaOps.byteStringAsKb(maxVolumePerBulkRequest);
            return new ByteSizeValue(kb, ByteSizeUnit.KB);
        }

        public TimeValue getFlushInterval(){
            long sec = JavaOps.timeStringAsSec(flushInterval);
            return TimeValue.timeValueSeconds(sec);
        }

        @Override
        public String toString() {
            final StringBuilder sb = new StringBuilder("Config{");
            sb.append("name='").append(name).append('\'');
            sb.append(", hostAndPorts=").append(hostAndPorts);
            sb.append(", cluster='").append(cluster).append('\'');
            sb.append(", index='").append(index).append('\'');
            sb.append(", indexCreateRule=").append(indexCreateRule);
            sb.append(", type='").append(type).append('\'');
            sb.append(", maxActionsPerBulkRequest=").append(maxActionsPerBulkRequest);
            sb.append(", maxConcurrentBulkRequests=").append(maxConcurrentBulkRequests);
            sb.append(", maxVolumePerBulkRequest='").append(maxVolumePerBulkRequest).append('\'');
            sb.append(", flushInterval='").append(flushInterval).append('\'');
            sb.append(", ignoreExceptions=").append(ignoreExceptions);
            sb.append(", level=").append(level);
            sb.append('}');
            return sb.toString();
        }
    }

    public static void main(String[] args) {
        long l = JavaOps.byteStringAsKb("10M");
        System.out.println(l);
    }
}

你可能感兴趣的:(Log4j2 自定义 Appender)