collectd 与 logstash配置

简介: 节点node1: 配置logstashnode2: 配置collectd, collectd收集本地的信息, 通过配置将信息发送到node1节点node1安装配置logstashrpm -ivh logstash.

节点

  • node1: 配置logstash
  • node2: 配置collectd, collectd收集本地的信息, 通过配置将信息发送到node1节点

node1安装配置logstash

  • rpm -ivh logstash.rpm
  • logstash安装在/opt目录下, 在/etc/profile,d目录下添加logstash.sh脚本文件将其添加到环境变量中
  • export PATH=$PATH:/opt/logstash/bin
  • 配置文件在/etc/logstash/conf.d下, 默认该目录是空的
  • 示例配置文件

example 1:

input {
file {
path => "/var/log/messages"
type => "system"
start_position => "beginning"
}
}

output {
stdout {
codec => rubydebug
}
}

example 2:

input {
stdin {}
}

output {
stdout {
codec => rubydebug
}
}

example 3(此为collectd的配置, 等会就是这个):

input {
udp {
port => 25826
type => "collectd"
codec => collectd {}
}
}

output {
stdout {
codec => rubydebug
}
}

node2安装配置collectd

  • yum install collectd #collectd在epel源
  • 配置文件为/etc/collectd.conf
  • LoadPlugin network
  • Hostname "node2"

  • systemctl start collectd

node1使用logstash

  • logstash -f /etc/logstash/collectd.conf --configtest
  • logstash -f /etc/logstash/collectd.conf
目录
相关文章
|
消息中间件 存储 编解码
『Logstash』Logstash配置文件详解
📣读完这篇文章里你能收获到 - Logstash配置文件详解
1498 0
『Logstash』Logstash配置文件详解
|
3月前
|
消息中间件 监控 Kafka
Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
【8月更文挑战第13天】Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
200 3
|
消息中间件 监控 NoSQL
ElasticSearch六 ElasticSearch扩展之FileBeat、Logstash 2
ElasticSearch六 ElasticSearch扩展之FileBeat、Logstash
234 0
|
存储 算法 数据可视化
ElasticSearch六 ElasticSearch扩展之FileBeat、Logstash 1
ElasticSearch六 ElasticSearch扩展之FileBeat、Logstash
73 0
|
消息中间件 Java Kafka
filebeat+kafka+logstash+elasticsearch+kibana实现日志收集解决方案
filebeat+kafka+logstash+elasticsearch+kibana实现日志收集解决方案
191 0
|
网络安全 开发工具
|
Java 关系型数据库
Logstash 安装
https://www.elastic.co/cn/downloads/logstash官网一、下载logstash[root@jiaxin-ceshi ~]# cd /usr/local/src/[root@jiaxin-ceshi src]# wget https://artifacts.
9008 0
|
编解码 NoSQL Java