跨阿里云账号采集日志

简介: 本文介绍跨阿里云账号采集日志的操作步骤。

本文介绍跨阿里云账号采集日志的操作步骤。

背景信息

如果您的服务器是与日志服务属于不同账号的ECS服务器、其他云厂商的服务器或自建IDC时,要通过Logtail采集该服务器日志您需要在服务器上安装Logtail后,配置日志服务所在阿里云账号ID为用户标识,表示该账号有权限通过Logtail采集该服务器日志。否则在机器组中会无法显示服务器IP或显示服务器心跳失败,导致Logtail无法采集日志到日志服务。

例如某电商公司拥有两个电商应用,均部署在阿里云杭州地域的集群上,并使用杭州地域的日志服务进行日志管理。

  • 应用A部署在阿里云账号A(12****456)下的集群(Linux系统)上,并使用该账号下的日志服务进行日志管理。

  • 应用B部署在阿里云账号B(17****397)下的集群(Linux系统)上,并使用该账号下的日志服务进行日志管理。

现公司业务调整,计划将两个应用的日志集中统一采集到阿里云账号A(12****456)下的日志服务中,即将两个应用的日志分别采集到同一个日志服务Project下的不同Logstore中。

image.png

跨账号采集原理

实现账号A跨账号采集B账号集群日志的关键点在于让A账号的日志服务感知到B账号集群的存在,在同地域的情况下只需要通过B账号集群的机器授权A账号,允许A账号采集就可以实现。

因此您需要在B集群中配置账号A的UID对A账号进行授权,并在A账号的Project中新增一个Logstore、机器组和Logtail采集配置,用于采集和存储应用B相关的日志。应用A相关的日志采集保持不变(使用原有的Logstore、机器组和Logtail采集配置)。下面我们将分主机环境K8s环境向您展示具体的操作步骤。

主机环境操作步骤

步骤一:创建用户标识文件

  1. 登录阿里云账号B下的ECS服务器。

重要

您需要在ECS集群B的每台ECS服务器中创建用户标识文件。

  1. 执行如下命令创建用户标识文件。您需要配置阿里云账号A为用户标识,即创建阿里云账号A的同名文件。更多信息,请参见配置用户标识

touch /etc/ilogtail/users/12****456

步骤二:创建用户自定义标识机器组

  1. 在ECS服务器上创建机器组的自定义用户标识文件或复用已有的自定义用户标识文件。

    重要

    您需要确保ECS集群B的每台ECS服务器中都创建了机器组的用户自定义标识文件。

    1. 登录阿里云账号B下的ECS服务器。

    2. 在指定目录下创建/etc/ilogtail/user_defined_id文件并添加用户自定义标识。

      例如配置用户自定义标识为application_b,则在文件中输入application_b,并保存。文件路径说明,请参见创建用户自定义标识机器组

  2. 在日志服务控制台上创建机器组。

    1. 使用阿里云账号A登录日志服务控制台

    2. 在Project列表区域,单击目标Project。

    3. 在左侧导航栏中,选择资源 > 机器组

    4. 选择机器组右侧的 > 创建机器组

    5. 创建机器组对话框中,配置如下参数,然后单击确定。其中用户自定义标识需设置为您在步骤1中设置的用户自定义标识。其他参数说明,请参见创建用户自定义标识机器组image.png

  3. 检查机器组中的服务器心跳都为OK。

    1. 在机器组列表中,单击目标机器组。

    2. 机器组配置页面,查看使用了相同用户自定义标识的ECS服务器及其心跳状态。心跳OK表示ECS服务器与日志服务的连接正常。如果显示FAIL请参见Logtail机器组无心跳

步骤三:采集日志

  1. 使用阿里云账号A登录日志服务控制台

  2. 接入数据区域,选择正则-文本日志

  3. 选择日志空间向导中,选择目标Project和Logstore,单击下一步

  4. 创建机器组向导中,单击使用现有机器组

  5. 机器组配置向导中,选中您在步骤二中创建的机器组,将该机器组从源机器组移动到应用机器组,单击下一步

  6. 创建Logtail采集配置,单击下一步

    具体参数说明,请参见使用完整正则模式采集日志

    重要

    • 由于账户A需要采集的文件与原来账号B是相同的,且默认一份文件只能生效一个采集配置,因此需要停止账号B的采集或添加强制采集配置(请参考如何实现文件中的日志被采集多份)使账户A的采集配置生效。

    • 此处创建Logtail采集配置成功后,请删除阿里云账号B下的原有Logtail采集配置,并关闭强制采集配置,避免重复采集日志。如何删除,请参见删除Logtail采集配置

  1. 预览数据及设置索引,单击下一步。日志服务默认开启全文索引。您也可以根据采集到的日志,手动或者自动设置字段索引。更多信息,请参见配置索引

K8s环境操作步骤

步骤一:设置阿里云账号为用户标识

  1. 使用阿里云账号B登录容器服务管理控制台

  2. 设置阿里云账号A为用户标识。

    1. 在左侧导航栏中,单击集群

    2. 集群列表页面中,单击目标集群。

    3. 在左侧导航栏中,选择配置管理 > 配置项

    4. 选择命名空间kube-system,然后在配置项列表中单击alibaba-log-configuration对应的编辑

    5. 编辑面板中,完成如下操作,然后单击确定。在log-ali-uid配置项中增加阿里云账号A的ID,多个账号之间使用半角逗号(,)相隔,例如17****397,12****456。然后记录log-machine-group配置项的值(例如k8s-group-cc47****54428),在创建机器组时需设置用户自定义标识为该值。

  3. 重启logtail-ds,使配置生效。在logtail-ds详情页面,确认各个容器组的状态为Running且创建时间为您更新配置后的时间。

    1. 在左侧导航栏中,选择工作负载 > 进程守护集

    2. 在守护进程集列表中,单击logtail-ds对应的编辑

    3. 环境变量区域,单击新增

    4. 新增一个任意内容的自定义变量(例如random_id:439157431651471905349)。

    5. 单击更新

步骤二:创建机器组

  1. 使用阿里云账号A登录日志服务控制台

  2. 在Project列表区域,单击目标Project。

  3. 在左侧导航栏中,选择资源 > 机器组

  4. 选择机器组右侧的 > 创建机器组

  5. 创建机器组对话框中,配置如下参数,然后单击确定。其中用户自定义标识需设置为您在步骤一:设置阿里云账号为用户标识中获取的机器组标识(例如k8s-group-cc47****54428)。其他参数说明,请参见创建用户自定义标识机器组

  6. 检查机器组中的服务器心跳都为OK。

    1. 在机器组列表中,单击目标机器组。

    2. 机器组配置页面,查看容器节点(ECS)的心跳状态。心跳OK表示容器节点与日志服务的连接正常。如果显示FAIL请参见Logtail机器组无心跳

步骤三:创建Logtail采集配置

  1. 使用阿里云账号A登录日志服务控制台

  2. 数据接入区域,单击Kubernetes-文件

  3. 选择目标Project和Logstore,单击下一步

  4. 单击使用现有机器组

  5. 选中您在步骤二:创建机器组中所创建的机器组,将该机器组从源机器组移动到应用机器组,单击下一步

  6. 设置Logtail采集配置,单击下一步。具体参数说明,请参见通过DaemonSet-控制台方式采集容器文本日志

    重要

    • 由于账户A需要采集的文件与原来账号B是相同的,且默认一份文件只能生效一个采集配置,因此需要停止账户B的采集或添加强制采集配置(请参考如何实现文件中的日志被采集多份)使账户A的采集配置生效。

    • 此处创建Logtail采集配置成功后,请删除阿里云账号B下的原有Logtail采集配置,并关闭强制采集配置,避免重复采集日志。如何删除,请参见删除Logtail采集配置

  7. 预览数据及设置索引,单击下一步。日志服务默认开启全文索引。您也可以根据采集到的日志,手动或者自动设置字段索引。更多信息,请参见配置索引

相关操作-停止数据采集

如果您需要停止阿里云账号B下的数据采集,可以将其Logtail配置与ECS集群B所在机器组的关联接触,具体操作如下:

  1. 在账号A的采集配置完成后等待2分钟,确保配置已经下发。

  2. 点击日志存储按钮。

  3. 选择要暂停的logtail配置。

  4. 点击修改。

    image.png
  5. 在应用机器组中选中要摘除的机器组。

  6. 点击“<”。

  7. 点击保存。

    image.png

重要

若A账号的采集配置在此操作2分钟后仍然没有生效,即未能采集到数据,请立刻恢复B账号的采集配置,避免日志采集丢失。

相关操作-历史数据迁移

如果您需要将阿里云账号B下的历史数据迁移到当前的Logstore中,可以在原Logstore中创建数据加工任务,将数据复制到当前Logstore中。具体操作,请参见复制Logstore数据

重要

跨账号加工数据时,需使用自定义角色或密钥方式进行授权,此处以自定义角色为例。

相关实践学习
通过日志服务实现云资源OSS的安全审计
本实验介绍如何通过日志服务实现云资源OSS的安全审计。
相关文章
|
8月前
|
数据采集 存储 大数据
大数据之路:阿里巴巴大数据实践——日志采集与数据同步
本资料全面介绍大数据处理技术架构,涵盖数据采集、同步、计算与服务全流程。内容包括Web/App端日志采集方案、数据同步工具DataX与TimeTunnel、离线与实时数仓架构、OneData方法论及元数据管理等核心内容,适用于构建企业级数据平台体系。
743 1
|
9月前
|
存储 运维 开发工具
警惕日志采集失败的 6 大经典雷区:从本地管理反模式到 LoongCollector 标准实践
本文总结了日志管理中的六大反模式及优化建议,涵盖日志轮转、存储选择、并发写入等常见问题,帮助提升日志采集的完整性与系统可观测性,适用于运维及开发人员优化日志管理策略。
323 5
|
5月前
|
数据采集 缓存 大数据
【赵渝强老师】大数据日志采集引擎Flume
Apache Flume 是一个分布式、可靠的数据采集系统,支持从多种数据源收集日志信息,并传输至指定目的地。其核心架构由Source、Channel、Sink三组件构成,通过Event封装数据,保障高效与可靠传输。
343 1
|
6月前
|
存储 Kubernetes 监控
Kubernetes日志管理:使用Loki进行日志采集
通过以上步骤,在Kubernetes环境下利用LoKi进行有效率且易于管理地logs采集变成可能。此外,在实施过程中需要注意版本兼容性问题,并跟进社区最新动态以获取功能更新或安全补丁信息。
424 16
|
7月前
|
存储 缓存 Apache
StarRocks+Paimon 落地阿里日志采集:万亿级实时数据秒级查询
A+流量分析平台是阿里集团统一的全域流量数据分析平台,致力于通过埋点、采集、计算构建流量数据闭环,助力业务提升流量转化。面对万亿级日志数据带来的写入与查询挑战,平台采用Flink+Paimon+StarRocks技术方案,实现高吞吐写入与秒级查询,优化存储成本与扩展性,提升日志分析效率。
952 1
|
8月前
|
JSON 安全 网络安全
LoongCollector 安全日志接入实践:企业级防火墙场景的日志标准化采集
LoonCollector 是一款轻量级日志采集工具,支持多源安全日志的标准化接入,兼容 Syslog、JSON、CSV 等格式,适用于长亭 WAF、FortiGate、Palo Alto 等主流安全设备。通过灵活配置解析规则,LoonCollector 可将原始日志转换为结构化数据,写入阿里云 SLS 日志库,便于后续查询分析、威胁检测与合规审计,有效降低数据孤岛问题,提升企业安全运营效率。
|
8月前
|
存储
WGLOG日志管理系统可以采集网络设备的日志吗
WGLOG日志审计系统提供开放接口,支持外部获取日志内容后发送至该接口,实现日志的存储与分析。详情请访问:https://www.wgstart.com/wglog/docs9.html
|
监控 安全 Apache
什么是Apache日志?为什么Apache日志分析很重要?
Apache是全球广泛使用的Web服务器软件,支持超过30%的活跃网站。它通过接收和处理HTTP请求,与后端服务器通信,返回响应并记录日志,确保网页请求的快速准确处理。Apache日志分为访问日志和错误日志,对提升用户体验、保障安全及优化性能至关重要。EventLog Analyzer等工具可有效管理和分析这些日志,增强Web服务的安全性和可靠性。
480 9
|
10月前
|
监控 容灾 算法
阿里云 SLS 多云日志接入最佳实践:链路、成本与高可用性优化
本文探讨了如何高效、经济且可靠地将海外应用与基础设施日志统一采集至阿里云日志服务(SLS),解决全球化业务扩展中的关键挑战。重点介绍了高性能日志采集Agent(iLogtail/LoongCollector)在海外场景的应用,推荐使用LoongCollector以获得更优的稳定性和网络容错能力。同时分析了多种网络接入方案,包括公网直连、全球加速优化、阿里云内网及专线/CEN/VPN接入等,并提供了成本优化策略和多目标发送配置指导,帮助企业构建稳定、低成本、高可用的全球日志系统。
1009 54