运维编排场景系列-----批量开启存储空间访问日志

本文涉及的产品
对象存储 OSS,20GB 3个月
对象存储 OSS,恶意文件检测 1000次 1年
日志服务 SLS,月写入数据量 50GB 1个月
简介: 应用场景开启归属不同Region的Buket日志访问功能。对每个Region内的BucketName名字统一规范处理,批量做开启设置操作。并指定Object的前缀做规统一化处理。解决方案一、打开控制台,找到运维编排二、创建模版根据以上的任务步骤来看可以把此任务创建为以下两个模版。

应用场景

开启归属不同Region的Buket日志访问功能。对每个Region内的BucketName名字统一规范处理,批量做开启设置操作。并指定Object的前缀做规统一化处理。

解决方案

一、打开控制台,找到运维编排
1565838531882_d0df7bfe_0d75_4864_9358_f32f97ea4380

二、创建模版
根据以上的任务步骤来看可以把此任务创建为以下两个模版。点击
创建模版**
1565838175874_155750e5_fa1a_423d_9b81_c6177749f8c1

模版内容:

FormatVersion: OOS-2019-06-01
Description: Open the different region access logging for bucket.
Parameters:
  bucketNamePrefix:
    Description: The prefix of bucket name.
    Type: String
  regions:
    Description: The region id.
    Type: List
  targetPrefix:
    Description: The prefix for target bucket.
    Type: String
    Default: mylog
  targetBucket:
    Description: The target bucket.
    Type: String
    Default: myoos
  assumeRole:
    Description: The RAM role to be assumed by OOS.
    Type: String
    Default: OOSServiceRole
RamRole: '{{ assumeRole }}'
Tasks:
  - Name: putBucketLogging
    Action: 'ACS::ExecuteAPI'
    Description: Turn on the access logging for bucket.
    Properties:
      Service: Oss
      API: PutBucketLogging
      Method: PUT
      URI: ''
      Headers: {}
      Parameters:
        BucketName: '{{bucketNamePrefix}}-{{ACS::TaskLoopItem}}'
        TargetBucket: '{{ targetBucket }}'
        TargetPrefix: '{{ targetPrefix }}-'
        RegionId: '{{ACS::TaskLoopItem}}'
      Body: ''
    Loop:
      Items: '{{ regions }}'
      MaxErrors: 100
      Concurrency: 10

三、创建执行
模版创建成功后,点击创建执行
1568960914864_0ec2d685_28af_41f3_8e35_04d674c72c05

四、设置参数
1568967713710_56b1445c_7ff5_423b_a6e4_300b238cbf1b

五、创建执行
参数设置完毕后,就可以点击创建执行了,此任务开始执行。
1565840688253_e3672be8_ea7a_4c29_b038_98c025823da1

执行后,任务分别开启不同Region的日志功能。
1568971782815_20e9e102_247a_4a38_8d13_876a850c2258

六、输出结果
当循环完所有的region后,在不同的区域开启Bycket成功。
1568961036094_7bc608c1_ec34_4c73_8f78_6492eb770fba

总结

此模版主要是开启Bucket的功能,在模版中运行OSS的openApi。OSS的模版样式与其他正常模版稍微有一点变化,运行OSS功能的时候需要。目前OOS运维编排处于公测中欢迎试用。

欢迎使用OOS

OOS客户支持钉钉群:23330931
OOS管理控制台的链接
OOS帮助文档的链接


系列文章

主题文章

阿里云重磅发布云上自动化利器——运维编排OOS

最佳实践

玩转运维编排服务的权限:Assume Role+Pass Role

场景系列

运维编排场景系列----更新ECS镜像
运维编排场景系列-----给ECS实例自动打TAG
运维编排场景系列----从实例中拷贝文件到OSS
运维编排场景系列----给实例加到SLS机器组
运维编排场景系列----检测MFA功能状态
阿里云运维编排新功能:一键批量克隆ECS
运维编排场景系列-----每日统计多Region实例的运行状态
运维编排场景系列-----如何使用jq
运维编排场景系列----分批到机器上运行命令

相关文章
|
11天前
|
运维 自然语言处理 开发者
作为一名运维人员,使用通义灵码个人版处理日常工作中的代码相关任务,极大地提升了我的工作效率。以下是我使用通义灵码的具体实践场景、效果和心得,以及相应的截图。
作为一名运维人员,我使用通义灵码处理日常工作中的代码任务,效率提升了30%。通义灵码帮助我快速理解复杂代码、生成准确的代码注释,并能从自然语言生成代码示例,大幅减少了代码编写和理解的时间。
37 3
|
2月前
|
机器学习/深度学习 人工智能 运维
|
14天前
|
运维 监控 数据可视化
出海运维日志通到底重要不重要?
出海运维日志通到底重要不重要?
|
2月前
|
设计模式 SQL 安全
PHP中的设计模式:单例模式的深入探索与实践在PHP的编程实践中,设计模式是解决常见软件设计问题的最佳实践。单例模式作为设计模式中的一种,确保一个类只有一个实例,并提供全局访问点,广泛应用于配置管理、日志记录和测试框架等场景。本文将深入探讨单例模式的原理、实现方式及其在PHP中的应用,帮助开发者更好地理解和运用这一设计模式。
在PHP开发中,单例模式通过确保类仅有一个实例并提供一个全局访问点,有效管理和访问共享资源。本文详细介绍了单例模式的概念、PHP实现方式及应用场景,并通过具体代码示例展示如何在PHP中实现单例模式以及如何在实际项目中正确使用它来优化代码结构和性能。
37 2
|
3月前
|
SQL 数据采集 JSON
使用对比!SLS 数据加工 SPL 与旧版 DSL 场景对照
本文讨论在不同的数据处理需求中,新版数据加工 SPL 与旧版数据加工 DSL 的使用对照。
7390 9
|
3月前
|
存储 边缘计算 运维
边缘计算问题之OpenYurt 对边缘计算场景中的运维难题如何解决
边缘计算问题之OpenYurt 对边缘计算场景中的运维难题如何解决
38 1
|
3月前
|
存储 运维 监控
监控与日志管理:保障系统稳定运行与高效运维的基石
【8月更文挑战第16天】监控与日志管理是保障系统稳定运行和高效运维的基石。它们不仅能够帮助企业及时发现并解决问题,还能够为性能调优、资源优化和业务决策提供有力支持。因此,在构建系统架构时,企业应高度重视监控与日志管理的规划和实施,确保它们能够充分发挥作用,为企业的发展保驾护航。同时,随着技术的不断进步和应用场景的不断拓展,监控与日志管理也将持续演进和创新,为企业带来更多的价值和便利。
|
3月前
|
运维 分布式计算 DataWorks
DataWorks产品使用合集之运维中心中的运行日志可以保留多久
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
3月前
|
运维 监控 数据可视化
自动化运维:使用Python脚本进行日志分析
【8月更文挑战第31天】当系统出现问题时,我们通常会查看日志寻找线索。然而,手动阅读大量日志既费时又易出错。本文将介绍如何使用Python脚本自动分析日志,快速定位问题,提高运维效率。我们将从简单的日志读取开始,逐步深入到复杂的正则表达式匹配和错误统计,最后实现一个自动化的日志监控系统。无论你是新手还是老手,这篇文章都将为你提供有价值的参考。让我们一起探索如何用代码解放双手,让运维工作变得更加轻松吧!
|
3月前
|
数据采集 SQL 运维
DataWorks产品使用合集之运维中心的详细日志是一直wait,是什么原因
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。