nrpe安装

简介:
见博文
1、配置nagios客户端(即可远程主机)

   在nagios客户端安装nagios插件和NRPE

   #useradd -s /sbin/nologin nagios
   #tar zxvf nagios-plugins-1.4.15.tar.gz
   #cd nagios-plugins-1.4.15
   #./configure
   #make && make install

   #chown nagios.nagios /usr/local/nagios

   #chown -R nagios.nagios /usr/local/nagios/libexec

   #tar zxvf nrpe-2.12.tar.gz
   #cd nrpe-2.12
   #./configure
   #make all
   #make install-plugin
   #make install-daemon
   #make install-daemon-config

2、配置NRPE

   配置文件:/usr/local/nagios/etc/nrpe.conf
  
   在allowed_hosts=127.0.0.1  后加上nagios服务器的ip地址或者域名,用逗号分隔

3、启动NRPE
  
   #/usr/local/nagios/bin/nrpe -c /usr/local/nagios/etc/nrpe.cfg -d

   #可将此命令写入rc.local文件,以便可以开机启动

   #验证:#netstat 0antl | grep 5666

   #测试:#/usr/local/nagios/libexec/check_nrpe -H 127.0.0.1
  
    正常情况下会返回版本信息

4、定义监控服务的内容

   在/usr/local/nagios/etc/nrpe.conf里进行定义   


command[check_swap]=/usr/local/nagios/libexec/check_swap -w 20% -c 10%


测试:

/usr/local/nagios/libexec/check_nrpe -H 127.0.0.1 -c check_ips
目录
相关文章
|
7天前
|
存储 弹性计算 人工智能
【2025云栖精华内容】 打造持续领先,全球覆盖的澎湃算力底座——通用计算产品发布与行业实践专场回顾
2025年9月24日,阿里云弹性计算团队多位产品、技术专家及服务器团队技术专家共同在【2025云栖大会】现场带来了《通用计算产品发布与行业实践》的专场论坛,本论坛聚焦弹性计算多款通用算力产品发布。同时,ECS云服务器安全能力、资源售卖模式、计算AI助手等用户体验关键环节也宣布升级,让用云更简单、更智能。海尔三翼鸟云服务负责人刘建锋先生作为特邀嘉宾,莅临现场分享了关于阿里云ECS g9i推动AIoT平台的场景落地实践。
【2025云栖精华内容】 打造持续领先,全球覆盖的澎湃算力底座——通用计算产品发布与行业实践专场回顾
|
1天前
|
弹性计算 人工智能 安全
云上十五年——「弹性计算十五周年」系列客户故事(第二期)
阿里云弹性计算十五年深耕,以第九代ECS g9i实例引领算力革新。携手海尔三翼鸟、小鹏汽车、微帧科技等企业,实现性能跃升与成本优化,赋能AI、物联网、智能驾驶等前沿场景,共绘云端增长新图景。
|
6天前
|
人工智能 自然语言处理 自动驾驶
关于举办首届全国大学生“启真问智”人工智能模型&智能体大赛决赛的通知
关于举办首届全国大学生“启真问智”人工智能模型&智能体大赛决赛的通知
|
6天前
|
云安全 人工智能 自然语言处理
阿里云x硅基流动:AI安全护栏助力构建可信模型生态
阿里云AI安全护栏:大模型的“智能过滤系统”。
|
Linux 虚拟化 iOS开发
VMware Workstation Pro 25H2 for Windows & Linux - 领先的免费桌面虚拟化软件
VMware Workstation Pro 25H2 for Windows & Linux - 领先的免费桌面虚拟化软件
1115 4
|
9天前
|
存储 机器学习/深度学习 人工智能
大模型微调技术:LoRA原理与实践
本文深入解析大语言模型微调中的关键技术——低秩自适应(LoRA)。通过分析全参数微调的计算瓶颈,详细阐述LoRA的数学原理、实现机制和优势特点。文章包含完整的PyTorch实现代码、性能对比实验以及实际应用场景,为开发者提供高效微调大模型的实践指南。
714 2
|
7天前
|
编解码 自然语言处理 文字识别
Qwen3-VL再添丁!4B/8B Dense模型开源,更轻量,仍强大
凌晨,Qwen3-VL系列再添新成员——Dense架构的Qwen3-VL-8B、Qwen3-VL-4B 模型,本地部署友好,并完整保留了Qwen3-VL的全部表现,评测指标表现优秀。
588 7
Qwen3-VL再添丁!4B/8B Dense模型开源,更轻量,仍强大
|
6天前
|
人工智能 缓存 算法
阿里云AI基础设施成果入选顶级学术会议,显著提升GPU利用率
阿里云提出的GPU池化服务多模型研究成果入选SOSP2025,其创新系统Aegaeon实现token级调度,大幅提升GPU利用率,核心技术已落地百炼平台,显著降低资源消耗。
538 2