Apache internal dummy connection 解决

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介:
 Apache 日志出现大量的::1 - - [27/Dec/2009:16:36:44 +0800] "OPTIONS * HTTP/1.0" 200 - "-" "Apache (internal dummy connection)"
日志。。其实对系统无影响。
这些日志是apache2.2版本后,对自身进程的监听所产生的日志~~

具体说明下:
When the Apache HTTP Server manages its child processes, it needs a way to wake up processes that are listening for new connections. To do this, it sends a simple HTTP request back to itself. This request will appear in the access_log file with the remote address set to the loop-back interface (typically 127.0.0.1 or ::1 if IPv6 is configured). If you log the User-Agent string (as in the combined log format), you will see the server signature followed by "(internal dummy connection) " on non-SSL servers. During certain periods you may see up to one such request for each httpd  child process. 

你可以过滤掉这些日志
在WIKI已经有解决方法:
http://wiki.apache.org/httpd/InternalDummyConnection

具体是设置:
SetEnvIf Remote_Addr "127\.0\.0\.1" loopback
在你的CustomLog 未尾加上 env=!loopback

例如:
SetEnvIf Remote_Addr "::1" loopback
CustomLog "|cronolog -r /usr/bin/gzip logs/ads_access_log.%Y%m%d" combined env=!loopback

SetEnvIf Remote_Addr "127\.0\.0\.1" loopback
这里引号里会出现2种情况。随便改~~

还有一种解决方案:就是在httpd.conf 新建一个虚拟主机。必须排在最前面。
因为apache这种机制,只针对第一个虚拟主机有效

你再不保存access日志就OK了


本文转自守住每一天51CTO博客,原文链接:http://blog.51cto.com/liuyu/252514,如需转载请自行联系原作者

相关实践学习
【涂鸦即艺术】基于云应用开发平台CAP部署AI实时生图绘板
【涂鸦即艺术】基于云应用开发平台CAP部署AI实时生图绘板
相关文章
|
SQL 机器学习/深度学习 算法
Apache Flink 社区 2022 年度报告:Evolution, Diversity, Connection
通过 Evolution、Diversity、Connection 三个关键词,从年度最佳实践、核心技术演进、开源技术生态等多维度盘点过去一年的成果,与各位开发者一同见证社区成长。
Apache Flink 社区 2022 年度报告:Evolution, Diversity, Connection
|
分布式计算 Hadoop 程序员
Apache Hadoop 启动报错:masternode:ssh: connect to host master port 22: Connection timed out 总结
Apache Hadoop 启动报错:masternode:ssh: connect to host master port 22: Connection timed out 总结
577 0
Apache Hadoop 启动报错:masternode:ssh: connect to host master port 22: Connection timed out 总结
|
前端开发 大数据 应用服务中间件
org.apache.catalina.connector.ClientAbortException: java.io.IOException: Connection reset by peer
org.apache.catalina.connector.ClientAbortException: java.io.IOException: Connection reset by peer
|
网络安全
org.apache.commons.net.ftp.FTPClient 下载文件提示Software caused connection abort: recv failed
今天在使用FTPClient下载文件时,登录成功了,但是提示下图所示的错误信息:   出现这个问题,本以为设置的读取文件目录不对,尝试修改多次无果。为了排除路径的问题,在firefox中安装了插件“FireFTP”,连接上之后,可以正常下载,于是该问题排除。
2287 0
|
2月前
|
人工智能 数据处理 API
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
Apache Flink Agents 是由阿里云、Ververica、Confluent 与 LinkedIn 联合推出的开源子项目,旨在基于 Flink 构建可扩展、事件驱动的生产级 AI 智能体框架,实现数据与智能的实时融合。
347 6
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
|
存储 Cloud Native 数据处理
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
本文整理自阿里云资深技术专家、Apache Flink PMC 成员梅源在 Flink Forward Asia 新加坡 2025上的分享,深入解析 Flink 状态管理系统的发展历程,从核心设计到 Flink 2.0 存算分离架构,并展望未来基于流批一体的通用增量计算方向。
297 0
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
|
4月前
|
SQL 人工智能 数据挖掘
Apache Flink:从实时数据分析到实时AI
Apache Flink 是实时数据处理领域的核心技术,历经十年发展,已从学术项目成长为实时计算的事实标准。它在现代数据架构中发挥着关键作用,支持实时数据分析、湖仓集成及实时 AI 应用。随着 Flink 2.0 的发布,其在流式湖仓、AI 驱动决策等方面展现出强大潜力,正推动企业迈向智能化、实时化的新阶段。
511 9
Apache Flink:从实时数据分析到实时AI
|
4月前
|
SQL 人工智能 API
Apache Flink 2.1.0: 面向实时 Data + AI 全面升级,开启智能流处理新纪元
Apache Flink 2.1.0 正式发布,标志着实时数据处理引擎向统一 Data + AI 平台迈进。新版本强化了实时 AI 能力,支持通过 Flink SQL 和 Table API 创建及调用 AI 模型,新增 Model DDL、ML_PREDICT 表值函数等功能,实现端到端的实时 AI 工作流。同时增强了 Flink SQL 的流处理能力,引入 Process Table Functions(PTFs)、Variant 数据类型,优化流式 Join 及状态管理,显著提升作业稳定性与资源利用率。
459 0
|
3月前
|
人工智能 运维 Java
Flink Agents:基于Apache Flink的事件驱动AI智能体框架
本文基于Apache Flink PMC成员宋辛童在Community Over Code Asia 2025的演讲,深入解析Flink Agents项目的技术背景、架构设计与应用场景。该项目聚焦事件驱动型AI智能体,结合Flink的实时处理能力,推动AI在工业场景中的工程化落地,涵盖智能运维、直播分析等典型应用,展现其在AI发展第四层次——智能体AI中的重要意义。
1145 27
Flink Agents:基于Apache Flink的事件驱动AI智能体框架

推荐镜像

更多