自定义log4j的appender写es日志

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
日志服务 SLS,月写入数据量 50GB 1个月
简介: 本篇和大家分享的是自定义log4j的appender,用es来记录日志并且通过kibana浏览es记录;就目前互联网或者一些中大型公司通常会用到第三方组合elk,其主要用写数据到es中,然后通过可视化工具kibana来做直观数据查看和统计;本篇内容节点如下:docker快速搭建es,es he...

本篇和大家分享的是自定义log4j的appender,用es来记录日志并且通过kibana浏览es记录;就目前互联网或者一些中大型公司通常会用到第三方组合elk,其主要用写数据到es中,然后通过可视化工具kibana来做直观数据查看和统计;本篇内容节点如下:

  • docker快速搭建es,es header,kibana 环境
  • 封装写es工具类
  • 自定义log4j的appender
  • kibana基础使用

docker快速搭建es,kibana,es header 环境

对于爱研究第三方服务的程序员来说docker是很好的助手,能够快速搭建一套简易的使用环境;docker启动es镜像具体不多说了看这里docker快速搭建几个常用的第三方服务,值得注意的是这里我定义了es的集群名称,通过如下命令进入容器中改了配置文件(当然可直接通过命令启动时传递参数):

docker exec -it eae7731bb6a1 /bin/bash

然后进入到 /usr/share/elasticsearch/config 并打开elasticsearch.yml配置文件修改:

#集群名称
cluster.name: "shenniu_elasticsearch"
#本节点名称
node.name: master
#是否master节点
node.master: true
#是否存储数据
node.data: true
#head插件设置
http.cors.enabled: true
http.cors.allow-origin: "*"
http.port: 9200
transport.tcp.port: 9300
#可以访问的ip
network.bind_host: 0.0.0.0

这里定义集群名为:shenniu_elasticsearch


如上启动了es后,我们为了直观的看到es中信息,这里用到了es header工具(当然不必须);只要docker启动其镜像后,我们能够在上面输入咋们的es地址,以此来检测es集群是否开启并浏览相关索引信息,es header默认端口9100:
image


通常搭配es的是kibana(可视化工具),用来查看es的数据和做一些统计(如数量统计,按列聚合统计等),这里通过docker run启动kibana镜像后,我们还需要让其关联上es才行,同样通过docker exec去修改里面配置信息,主要在里面配置es地址:

docker exec -it 67a0ef871ef7 /bin/bash
cd etc/
cd kibana/
vim kibana.yml

配置内容修改如:

server.host: '0.0.0.0'
elasticsearch.url: 'http://192.168.181.7:9200'  #es地址

如上操作完后,打开kibana地址 http://192.168.181.7:5601/app/kibana ,能够看到让咋们配置es索引查询规则的界面,如果es地址down掉或者配置不对,kibana会停留在red界面,让我们正确配置:
image

封装写es工具类

java往es中写数据,可以使用官网推荐的 org.elasticsearch.client 包(注意版本问题),我这里es是5.6版本对应的rest-high-leve-client最好也引入5.6版本的,如下pom信息:

        <dependency>
            <groupId>log4j</groupId>
            <artifactId>log4j</artifactId>
            <version>1.2.17</version>
        </dependency>
        <dependency>
            <groupId>org.elasticsearch.client</groupId>
            <artifactId>elasticsearch-rest-high-level-client</artifactId>
            <version>5.6.16</version>
        </dependency>
        <dependency>
            <groupId>com.alibaba</groupId>
            <artifactId>fastjson</artifactId>
            <version>1.2.56</version>
            <scope>compile</scope>
        </dependency>

首先要明确用代码操作es(或其他第三方服务),往往都需ip(域名)+端口,这里我的配置信息:

#es连接串 ','分割
es.links=http://192.168.181.7:9200,http://localhost:9200
es.indexName=eslog_shenniu003

然后有如下封装代码:

public class EsRestHighLevelClient {

    /**
     * new HttpHost("192.168.181.44", 9200, "http")
     */
    private HttpHost[] hosts;
    private String index;
    private String type;
    private String id;

    public EsRestHighLevelClient(String index, String type, String id, HttpHost[] hosts) {
        this.hosts = hosts;
        this.index = index;
        this.type = type;
        this.id = id;
    }

    /**
     * @param index
     * @param type
     * @param hosts
     */
    public EsRestHighLevelClient(String index, String type, String... hosts) {
        this.hosts = IpHelper.getHostArrByStr(hosts);
        this.index = index;
        this.type = type;
    }

    public RestHighLevelClient client() {
        Assert.requireNonEmpty(this.hosts, "无效的es连接");

        RestHighLevelClient client = new RestHighLevelClient(
                RestClient.builder(this.hosts).build()
        );
        return client;
    }

    public IndexRequest indexRequest() {
        return new IndexRequest(this.index, this.type, this.id);
    }

    public RestStatus createIndex(Map<String, Object> map) throws IOException {
        return client().
                index(this.indexRequest().source(map)).
                status();
    }
}

这里还涉及到了一个IpHelper辅助类,主要用来拆分多个ip信息参数,里面涉及到正则匹配方式:

public class IpHelper {

    private static final String strHosts = "(?<h>[^:]+)://(?<ip>[^:]+):(?<port>[^/|,]+)";
    private static final Pattern hostPattern = Pattern.compile(strHosts);

    public static Optional<String> getHostIp() {
        try {
            return Optional.ofNullable(InetAddress.getLocalHost().getHostAddress());
        } catch (UnknownHostException e) {
            e.printStackTrace();
        }
        return Optional.empty();
    }

    public static Optional<String> getHostName() {
        try {
            return Optional.ofNullable(InetAddress.getLocalHost().getHostName());
        } catch (UnknownHostException e) {
            e.printStackTrace();
        }
        return Optional.empty();
    }

    /**
     * strHosts:"http://192.168.0.1:9200","http://192.168.0.1:9200","http://192.168.0.1:9200"
     *
     * @return
     */
    public static List<HttpHost> getHostsByStr(String... strHosts) {
        List<HttpHost> hosts = new ArrayList<>();
        for (int i = 0; i < strHosts.length; i++) {
            String[] hostArr = strHosts[i].split(",");
            for (String strHost : hostArr) {
                Matcher matcher = hostPattern.matcher(strHost);
                if (matcher.find()) {
                    String http = matcher.group("h");
                    String ip = matcher.group("ip");
                    String port = matcher.group("port");

                    if (Strings.isEmpty(http) || Strings.isEmpty(ip) || Strings.isEmpty(port)) {
                        continue;
                    }
                    hosts.add(new HttpHost(ip, Integer.valueOf(port), http));
                }
            }
        }
        return hosts;
    }

    public static HttpHost[] getHostArrByStr(String... strHosts) {
        List<HttpHost> list = getHostsByStr(strHosts);
        return Arrays.copyOf(list.toArray(), list.size(), HttpHost[].class);
    }
}

自定义log4j的appender

对于日志来说log4j是大众化的,有很多语言也在用这种方式来记录,使用它相当于一种共识;它提供了很好的扩展,很方便达到把日志记录到数据库,文本获取其他自定义代码方式中;定义一个EsAppend类,继承AppenderSkeleton类,代码上我们要做的仅仅重写如下方法即可:
image

本期咋们实现的步骤是:

  1. activateOptions方法获取自定义配置信息(es连接串,写es的日志索引名等)
  2. append方法获取并记录logger.xx()等级的日志
  3. ExecutorService线程池类操作多个线程执行execute提交日志到es

具体实现代码如下,可按照上面步骤分析:

public class EsAppend extends AppenderSkeleton {

    //es客户端
    private static EsRestHighLevelClient esClient;
    //es配置文件名
    private String confName;

    private ExecutorService executorService = Executors.newFixedThreadPool(10);

    protected void append(LoggingEvent loggingEvent) {
        if (this.isAsSevereAsThreshold(loggingEvent.getLevel())) {
            executorService.execute(new EsAppendTask(loggingEvent, this.layout));
//            new EsAppendTask(loggingEvent, this.layout).run();
        }
    }

    public void close() {
        this.closed = true;
    }

    public boolean requiresLayout() {
        return false;
    }

    @Override
    public void activateOptions() {
        super.activateOptions();
        try {
            System.out.println("初始化 - EsAppend...");

            if (this.getConfName() == null || this.getConfName().isEmpty()) {
                this.setConfName("eslog.properties");
            }
            PropertiesHelper propertiesHelper = new PropertiesHelper(this.getConfName());
            //es hosts
            String strHosts = propertiesHelper.getProperty("es.links", "http://127.0.0.1:9200");
            //es日志索引
            String esLogIndex = propertiesHelper.getProperty("es.indexName", "eslog");
            esClient = new EsRestHighLevelClient(esLogIndex, "docs", strHosts);

            System.out.println("初始化完成 - EsAppend");
        } catch (Exception ex) {
            System.out.println("初始化失败- EsAppend");
            ex.printStackTrace();
        }
    }

    public String getConfName() {
        return confName;
    }

    public void setConfName(String confName) {
        this.confName = confName;
    }

    /**
     * runable写es
     */
    class EsAppendTask implements Runnable {
        private HashMap<String, Object> map;

        public EsAppendTask(LoggingEvent loggingEvent, Layout layout) {
            SimpleDateFormat df = new SimpleDateFormat("yyyy-MM-dd\'T\'HH:mm:ss.SSSZ");
            map = new HashMap<String, Object>() {
                {
                    put("timeStamp",df.format(new Date()));
                    put("serverIp", IpHelper.getHostIp().get());
                    put("hostname", IpHelper.getHostName().get());
                    put("level", loggingEvent.getLevel().toString());

                    put("className", loggingEvent.getLocationInformation().getClassName());
                    put("methodName", loggingEvent.getLocationInformation().getMethodName());
                    put("data", loggingEvent.getMessage());

                    if (loggingEvent.getThrowableInformation() != null && !CollectionUtils.isEmpty(loggingEvent.getThrowableInformation().getThrowableStrRep())) {
                        put("exception", String.join(";", loggingEvent.getThrowableInformation().getThrowableStrRep()));
                    } else {
                        put("exception", "");
                    }
                }
            };
        }

        @Override
        public void run() {
            try {
                EsAppend.esClient.createIndex(map);
            } catch (IOException e) {
                e.printStackTrace();
            }
        }
    }
}

如上代码有一些自定义属性如confName,这个对应log4j.properties文件中自定义的confName属性,也就是说代码中confName和配置文件中的节点对应,可以直接get获取值;如下log4j配置信息:

# Set root logger level to DEBUG and its only appender to A1.
log4j.rootLogger=DEBUG,esAppend
# A1 is set to be a ConsoleAppender.
log4j.appender.esAppend=log.EsAppend
#自定义es配置文件
log4j.appender.esAppend.confName=eslog.properties

# A1 uses PatternLayout.
#log4j.appender.esAppend.layout=org.apache.log4j.PatternLayout
#log4j.appender.esAppend.layout

上面PatternLayout配置是注释的,因为对于我写es来说没啥用处,不做格式化处理所以可以直接忽略;

  1. log4j.rootLogger:log4根节点配置,根节点配置debug其他子节点不重新定义的话使用继承模式;esAppend是随意定义append名称
  2. log4j.appender.esAppend:这里的esAppend对应rootLogger节点上随意定义的名称;log.EsAppend是只对应append的代码实现类
  3. log4j.appender.esAppend.confName:自定义es配置节点,代码中get获取即可(注意:activateOptions方法)

下面列出扩展append时需要注意的地方:

  1. 如果log4j.properties文件中有自定义属性,那么activateOptions方法是必须的,不然通过属性get是获取不了log4j.properties文件中自定义属性的值
  2. 因为是使用线程池来操作写es,所以顺序方面不能保证,因此最好插入时间列
  3. 对应用程序而言,es没法主动区分请求处理服务器是哪台,所以需要插入日志时最好带上服务器ip或者唯一标识
  4. 时间格式:yyyy-MM-dd'T'HH:mm:ss.SSSZ ,目前kibana搜索默认支持的时间格式

kibana基础使用

有了上面步骤后,我们来到测试环节,建一个测试接口,并且请求插入一些数据:

    static Logger logger = Logger.getLogger(TestController.class);

    @GetMapping("/hello/{nickname}")
    public String getHello(@PathVariable String nickname) {
        String str = String.format("你好,%s", nickname);
        logger.debug(str);
        logger.info(str);
        logger.error(str);
        return str;
    }

当我们请求接口 http://localhost:4020/hello/神牛003 一次后,通过es header查看内容如下:
image

这种方式不怎么直观,可以通过kibana来查看,如下先配置kibana使用的索引:
image

最后通过Discover界面搜索相关日志信息:
image
image

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
1月前
|
XML 安全 Java
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
本文介绍了Java日志框架的基本概念和使用方法,重点讨论了SLF4J、Log4j、Logback和Log4j2之间的关系及其性能对比。SLF4J作为一个日志抽象层,允许开发者使用统一的日志接口,而Log4j、Logback和Log4j2则是具体的日志实现框架。Log4j2在性能上优于Logback,推荐在新项目中使用。文章还详细说明了如何在Spring Boot项目中配置Log4j2和Logback,以及如何使用Lombok简化日志记录。最后,提供了一些日志配置的最佳实践,包括滚动日志、统一日志格式和提高日志性能的方法。
315 30
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
|
2月前
|
XML JSON Java
Logback 与 log4j2 性能对比:谁才是日志框架的性能王者?
【10月更文挑战第5天】在Java开发中,日志框架是不可或缺的工具,它们帮助我们记录系统运行时的信息、警告和错误,对于开发人员来说至关重要。在众多日志框架中,Logback和log4j2以其卓越的性能和丰富的功能脱颖而出,成为开发者们的首选。本文将深入探讨Logback与log4j2在性能方面的对比,通过详细的分析和实例,帮助大家理解两者之间的性能差异,以便在实际项目中做出更明智的选择。
325 3
|
1月前
|
JSON Java 数据库
SpringBoot项目使用AOP及自定义注解保存操作日志
SpringBoot项目使用AOP及自定义注解保存操作日志
50 1
|
2月前
|
存储 缓存 关系型数据库
MySQL事务日志-Redo Log工作原理分析
事务的隔离性和原子性分别通过锁和事务日志实现,而持久性则依赖于事务日志中的`Redo Log`。在MySQL中,`Redo Log`确保已提交事务的数据能持久保存,即使系统崩溃也能通过重做日志恢复数据。其工作原理是记录数据在内存中的更改,待事务提交时写入磁盘。此外,`Redo Log`采用简单的物理日志格式和高效的顺序IO,确保快速提交。通过不同的落盘策略,可在性能和安全性之间做出权衡。
1704 14
|
2月前
|
Python
log日志学习
【10月更文挑战第9天】 python处理log打印模块log的使用和介绍
43 0
|
2月前
|
数据可视化
Tensorboard可视化学习笔记(一):如何可视化通过网页查看log日志
关于如何使用TensorBoard进行数据可视化的教程,包括TensorBoard的安装、配置环境变量、将数据写入TensorBoard、启动TensorBoard以及如何通过网页查看日志文件。
274 0
|
2月前
|
存储 分布式计算 NoSQL
大数据-136 - ClickHouse 集群 表引擎详解1 - 日志、Log、Memory、Merge
大数据-136 - ClickHouse 集群 表引擎详解1 - 日志、Log、Memory、Merge
59 0
|
2月前
|
缓存 Linux 编译器
【C++】CentOS环境搭建-安装log4cplus日志组件包及报错解决方案
通过上述步骤,您应该能够在CentOS环境中成功安装并使用log4cplus日志组件。面对任何安装或使用过程中出现的问题,仔细检查错误信息,对照提供的解决方案进行调整,通常都能找到合适的解决之道。log4cplus的强大功能将为您的项目提供灵活、高效的日志管理方案,助力软件开发与维护。
72 0
|
3月前
|
Java
日志框架log4j打印异常堆栈信息携带traceId,方便接口异常排查
日常项目运行日志,异常栈打印是不带traceId,导致排查问题查找异常栈很麻烦。
|
3月前
|
Shell Python
salt自定义模块内使用日志例子
salt自定义模块内使用日志例子