数据加工 - 跨Region传输功能介绍

本文涉及的产品
全站加速 DCDN,50GB 1年
日志服务 SLS,月写入数据量 50GB 1个月
边缘安全加速 ESA,基础版 3个月
简介: 本文介绍 数据加工 近期新推出的跨Region传输的功能,帮助大家快速了解该功能

数据加工

数据加工是SLS(日志服务)推出的一项功能,面向日志实时行处理,目前提供了200+的DSL算子 链接
图片.png
今天给大家介绍的功能是数据加工-跨Region传输的功能

使用场景

当我们的业务分布在不同的Region,日志会分布在不同的Region,当需要对不同Region的日志进行集中管理就会遇到一定的麻烦。那么通过SLS数据加工-跨Region传输的功能,可以很好地解决这样的问题。
图片.png

跨Region传输使用方法

Step1. 打开logstore的数据加工

图片.png

Step2. 编写DSL(如果是复制的话,DSL语句为空),编写完后,点击 预览数据进入下一步

图片.png

Step3. 保存数据加工
图片.png

Step4. 填写Output 表单, 填写目标Region

图片.png

Step 5. 点击“确定” 按钮完成数据加工任务配置

Step 6. 检查对端logstore能否收到数据

图片.png

FAQ

如何收费?

1.按照传输的压缩流量计费。比如10MB的数据,如果按照1:10的压缩比,那么会产生1MB的传输流量(按这个计费) 。具体计费参考 链接

如何提高传输压缩率?

1.对于webtracking的场景,建议对__topic__、__tag__: 、__source__进行处理,减少传输发送次数,提升压缩率, 原因是发送日志数据的时候,组织的单位是一个Loggroup,如果有多种__source__、__topic__、__tag__:组合的话,会产生多个LogGroup从而降低压缩率
图片.png

网络不稳定怎么办?

1.跨Region传输依赖公网网络环境,如果是跨境传输的话,网络稳定性不一定保证,加工作业会自动做重试
2.如果想提升传输的网络质量,可以启用DCDN加速方案

图片.png

DCDN启用帮助文档:https://help.aliyun.com/document_detail/86819.html
DCDN配置完成后,在创建加工任务里可以勾选“DCDN”,即可使用DCDN网络进行加速

图片.png

目录
相关文章
|
28天前
|
消息中间件 JavaScript Kafka
跨服务的数据
【10月更文挑战第29天】
21 2
|
5月前
|
机器学习/深度学习 分布式计算 大数据
MaxCompute产品使用问题之ods层离线同步任务,数据源的一张表新增了字段。如何更改可以不影响当前节点和下游任务的运行
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
canal 存储 算法
跨系统实时同步数据解决方案
数据量太大,单存储节点存不下,就只能把数据分片存储。
1212 0
|
6月前
手动模式配置链路聚合
手动模式配置链路聚合
40 1
|
6月前
|
运维 数据处理 调度
不想跨集群传输数据?Dataphin自定义集群帮你搞定!
Dataphin V3.13版本新增自定义注册调度集群功能。通过自定义注册不同集群并指定关联租户,可实现资源隔离管控;通过指定集成任务运行使用的资源组,可减少跨集群数据传输场景,降低流量带宽消耗,提高同步效率。
106 0
|
分布式计算 关系型数据库 MySQL
带你读《全链路数据治理-全域数据集成》之34:3. 准备工作:添加数据源
带你读《全链路数据治理-全域数据集成》之34:3. 准备工作:添加数据源
168 0
|
分布式计算 DataWorks 关系型数据库
带你读《全链路数据治理-全域数据集成》之24:3. 准备工作:添加数据源
带你读《全链路数据治理-全域数据集成》之24:3. 准备工作:添加数据源
184 0
|
消息中间件 存储 数据采集
数仓采集通道的设计
数仓采集通道的设计
103 0
数仓采集通道的设计
|
存储 SQL 消息中间件
PB级日志数据实时加工原理与实践
本文是参加2021 K+全球软件研发行业创新峰会专题分享后的一些总结。同时也学习了其他多个专题分享,总体感觉是整个大会的分享专题覆盖面特别广,专业度都很高。此次专题分享我希望带给听众对于整个日志数据处理场景的现状、常规解决方案,以及带大家深入了解我们团队自研的数据加工服务的技术架构、核心技术难点等。另外就是数据加工的场景实践,以及对未来发展的简述。
559 0
PB级日志数据实时加工原理与实践
|
存储 JSON 运维
多模式日志数据流的实时加工与集散
日志处理是一个极其繁琐的过程,究其原因是日志的边界情况特别多,而且可能随时在变。阿里云 SLS 数据加工服务是专门针对日志规整、富化、集散等处理场景。本文主要介绍在多模式混杂的日志集散场景下,如何快速使用 SLS 数据加工服务完成需求。
374 0
多模式日志数据流的实时加工与集散