Apache Log4j2 高危漏洞应急响应处置方法汇总整理

简介: Apache Log4j2 高危漏洞应急响应处置方法汇总整理

640.png

Apache Log4j2是一款优秀的Java日志框架。2021年11月24日,阿里云安全团队向Apache官方报告了Apache Log4j2远程代码执行漏洞。由于Apache Log4j2某些功能存在递归解析功能,攻击者可直接构造恶意请求,触发远程代码执行漏洞。


漏洞利用无需特殊配置, 经阿里云安全团队验证,Apache Struts2、Apache Solr、Apache Druid、Apache Flink等均受影响。


2021年12月10日,阿里云安全团队发现 Apache Log4j 2.15.0-rc1 版本存在漏洞绕过,请及时更新至 Apache Log4j 2.15.0 正式版本。


阿里云应急响应中心提醒 Apache Log4j2 用户尽快采取安全措施阻止漏洞攻击。


640.jpg


2021年12月10日,国家信息安全漏洞共享平台(CNVD)收录了Apache Log4j2远程代码执行漏洞(CNVD-2021-95914)


640.jpg



CVE编号:CVE-2021-44228


640.jpg

各大厂商的发布的安全公告可以参考特大号的公众号文章:


https://mp.weixin.qq.com/s/vKiG3P7V5qXL1gUAeKVy0w


目前可能的受影响应用组件包括但不限于:Spring-Boot-strater-log4j2、Apache Struts2、Apache Solr、Apache Flink、Apache Druid、Elasticsearch、Flume、Dubbo、Redis、Logstash、Kafka 等


在实际生产环境,虽然很多系统并未使用Java,但后台的服务中大量使用了ElasticSearch、Kafka、Estorm、Logstash等Java实现的开源组件,也会通过前台的输入产生实际影响。因此,实际影响面远超想象


640.png



一、漏洞检测工具


1、微步在线提供的免费Log4j2漏洞资产排查工具下载!


640.jpg




https://static.threatbook.cn/tools/log4j-local-check.sh


使用方式如下截图所示


wget https://static.threatbook.cn/tools/log4j-local-check.sh
sh log4j-local-check.sh


640.jpg


2、长亭科技也提供了在线检测工具


https://log4j2-detector.chaitin.cn/

640.jpg

https://chaitin-marketing-public.cn-beijing.oss.aliyuncs.com/log4j.tgz


工具检测使用示例截图

1、共两条命令,先执行第一条命令,不要中断,然后再启动一个终端执行第二条命令

2、注意两条命令需要在同一个目录下执行

640.jpg

640.jpg

640.jpg

640.jpg


json格式美化后的结果
{
    "results": [
        {
            "arch": "", 
            "container_id": "", 
            "edition": "", 
            "path": "/usr/share/graylog-server/graylog.jar#META-INF/maven/org.apache.logging.log4j/log4j-core/pom.xml", 
            "product": "log4j-core", 
            "vendor": "org.apache.logging.log4j", 
            "version": "2.13.3"
        }, 
        {
            "arch": "", 
            "container_id": "", 
            "edition": "", 
            "path": "/usr/share/elasticsearch/bin/elasticsearch-sql-cli-7.14.0.jar#META-INF/maven/org.apache.logging.log4j/log4j-core/pom.xml", 
            "product": "log4j-core", 
            "vendor": "org.apache.logging.log4j", 
            "version": "2.11.1"
        }, 
        {
            "arch": "", 
            "container_id": "", 
            "edition": "", 
            "path": "/usr/share/elasticsearch/lib/elasticsearch-7.14.0.jar#META-INF/MANIFEST.MF", 
            "product": "elasticsearch", 
            "vendor": "elastic", 
            "version": "7.14.0"
        }, 
        {
            "arch": "", 
            "container_id": "", 
            "edition": "", 
            "path": "/usr/share/elasticsearch/lib/log4j-core-2.11.1.jar#META-INF/maven/org.apache.logging.log4j/log4j-core/pom.xml", 
            "product": "log4j-core", 
            "vendor": "org.apache.logging.log4j", 
            "version": "2.11.1"
        }
    ]
}

二、Log4j2 漏洞修复建议

临时性缓解措施(任选一种,但是注意,只有 >=2.10.0 版本才可以用,老版本不支持这个选项)


  • 1、在 jvm 参数中添加 -Dlog4j2.formatMsgNoLookups=true
  • 2、系统环境变量中将LOG4J_FORMAT_MSG_NO_LOOKUPS 设置为 true 据说之前这个 FORMAT_MESSAGES_PATTERN_DISABLE_LOOKUPS 设置为true方法无效,目前需要更正为 LOG4J_FORMAT_MSG_NO_LOOKUPS设置为true
  • 3、创建 log4j2.component.properties 文件,文件中增加配置 log4j2.formatMsgNoLookups=true 彻底修复漏洞:


方案一、研发代码修复:升级到官方提供的 log4j-2.15.0-rc2 版本


升级Apache Log4j所有相关应用到最新的 Log4j-2.15.0官方稳定版本。下载地址:


https://logging.apache.org/log4j/2.x/download.html


方案二、生产环境修复


https://github.com/zhangyoufu/log4j2-without-jndi


由长亭工程师提供的删除了 JndiLookup.class 的对应版本直接替换重启即可。(如果不放心网上下载的版本,也可以自己手动解压删除:


zip -q -d log4j-core-*.jar org/apache/logging/log4j/core/lookup/JndiLookup.class


删除jar包里的这个漏洞相关的class,然后重启服务即可)


三、建议的应急处置方法


安全工程师可以参照以下流程排查风险并加固


1、攻击识别


在边界防护设备上增加针对该漏洞攻击拦截策略,例如WAF、FW、IPS等,目前各大安全厂商基本上已经于12月10号已经更新的漏洞特征库或入侵防御特征库

在内网流量或者日志分析设备上增加识别策略


640.jpg



2、主机资产加固


在主机资产的防护系统,例如主机安全产品(例如椒图云锁,EDR等)上增加防护策略 通过扫描器主动扫描网络、主机安全产品盘点和发现资产、综合排查出受影响的资产

可以结合堡垒机批量运维功能,批量下发并执行检测脚本梳理有漏洞的资产


cd /opt;wget https://static.threatbook.cn/tools/log4j-local-check.sh;sh log4j-local-check.sh;


3、限制受影响应用对外访问互联网,并在边界对dnslog相关域名访问进行检测。


640.jpg

640.jpg

部分公共dnslog平台如下:


ceye.io
dnslog.link
dnslog.cn
dnslog.io
tu4.org
burpcollaborator.net
s0x.cn


建议直接在出口防火墙上对这些域名做阻断


附腾讯安全提供的IOC情报域名建议也加入阻断名单


640.jpg


4、后期漏洞整改


对已经梳理出受漏洞影响的资产清单参考上面的漏洞修复建议进行 对于无法加固的系统,实现离线/隔离、加强主机安全监控、增加边界防护策略

相关实践学习
以电商场景为例搭建AI语义搜索应用
本实验旨在通过阿里云Elasticsearch结合阿里云搜索开发工作台AI模型服务,构建一个高效、精准的语义搜索系统,模拟电商场景,深入理解AI搜索技术原理并掌握其实现过程。
ElasticSearch 最新快速入门教程
本课程由千锋教育提供。全文搜索的需求非常大。而开源的解决办法Elasricsearch(Elastic)就是一个非常好的工具。目前是全文搜索引擎的首选。本系列教程由浅入深讲解了在CentOS7系统下如何搭建ElasticSearch,如何使用Kibana实现各种方式的搜索并详细分析了搜索的原理,最后讲解了在Java应用中如何集成ElasticSearch并实现搜索。  
相关文章
|
安全 应用服务中间件 Apache
Apache-Tomcat-Ajp文件读取漏洞(CVE-2020-1938、CNVD-2020-10487)
Apache-Tomcat-Ajp文件读取漏洞产生原因是由于Tomcat默认开启的AJP服务(8009端口)存在一处文件包含缺陷,攻击者可构造恶意的请求包进行文件包含操作,进而读取受影响Tomcat服务器上的Web目录文件
1691 1
web服务器(Apache)访问日志(access_log)详细解释
web服务器(Apache)访问日志(access_log)详细解释
|
安全 Java Shell
Apache Log4j2 远程代码执行漏洞
Apache Log4j2是一个·基于Java的日志记录工具,该工具重写了Log4j框架,并且引入大量丰富的特性,该日志框架被大量用于业务系统开发,用来记录日志信息。
295 2
|
存储 安全 Java
【Shiro】Apache Shiro 默认密钥致命令执行漏洞(CVE-2016-4437)的解决方案
【Shiro】Apache Shiro 默认密钥致命令执行漏洞(CVE-2016-4437)的解决方案
1822 0
|
安全 Java 大数据
CDH/HDP/CDP等大数据平台中如何快速应对LOG4J的JNDI系列漏洞
CDH/HDP/CDP等大数据平台中如何快速应对LOG4J的JNDI系列漏洞
|
5月前
|
人工智能 数据处理 API
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
Apache Flink Agents 是由阿里云、Ververica、Confluent 与 LinkedIn 联合推出的开源子项目,旨在基于 Flink 构建可扩展、事件驱动的生产级 AI 智能体框架,实现数据与智能的实时融合。
954 6
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
|
存储 Cloud Native 数据处理
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
本文整理自阿里云资深技术专家、Apache Flink PMC 成员梅源在 Flink Forward Asia 新加坡 2025上的分享,深入解析 Flink 状态管理系统的发展历程,从核心设计到 Flink 2.0 存算分离架构,并展望未来基于流批一体的通用增量计算方向。
521 0
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
|
7月前
|
SQL 人工智能 数据挖掘
Apache Flink:从实时数据分析到实时AI
Apache Flink 是实时数据处理领域的核心技术,历经十年发展,已从学术项目成长为实时计算的事实标准。它在现代数据架构中发挥着关键作用,支持实时数据分析、湖仓集成及实时 AI 应用。随着 Flink 2.0 的发布,其在流式湖仓、AI 驱动决策等方面展现出强大潜力,正推动企业迈向智能化、实时化的新阶段。
875 9
Apache Flink:从实时数据分析到实时AI
|
7月前
|
SQL 人工智能 API
Apache Flink 2.1.0: 面向实时 Data + AI 全面升级,开启智能流处理新纪元
Apache Flink 2.1.0 正式发布,标志着实时数据处理引擎向统一 Data + AI 平台迈进。新版本强化了实时 AI 能力,支持通过 Flink SQL 和 Table API 创建及调用 AI 模型,新增 Model DDL、ML_PREDICT 表值函数等功能,实现端到端的实时 AI 工作流。同时增强了 Flink SQL 的流处理能力,引入 Process Table Functions(PTFs)、Variant 数据类型,优化流式 Join 及状态管理,显著提升作业稳定性与资源利用率。
773 0
|
6月前
|
人工智能 运维 Java
Flink Agents:基于Apache Flink的事件驱动AI智能体框架
本文基于Apache Flink PMC成员宋辛童在Community Over Code Asia 2025的演讲,深入解析Flink Agents项目的技术背景、架构设计与应用场景。该项目聚焦事件驱动型AI智能体,结合Flink的实时处理能力,推动AI在工业场景中的工程化落地,涵盖智能运维、直播分析等典型应用,展现其在AI发展第四层次——智能体AI中的重要意义。
2204 27
Flink Agents:基于Apache Flink的事件驱动AI智能体框架

推荐镜像

更多