使用dataworks投递日志服务数据到MaxCompute

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 日志服务提供了多种投递数据的方式,如: 在控制台直接配置投递任务,通过消费组获取数据然后再投递。控制台直接投递配置方式与dataworks类似,不过配置项更少,更容易操作。

背景

本文将为您介绍如何通过数据集成(DataWorks)功能投递LogHub(SLS)数据至MaxCompute。

前提条件

总览

  1. 首先,需要确定日志服务中存在可供投递的数据;
  2. 然后,在DataWorks控制台中创建工作空间,以及日志服务的数据源、MaxComputer的数据源、MaxCompute的目标表;
  3. 最后,创建投递任务。

投递流程

一、通过Dataworks控制台创建MaxCompute表

温馨提示:如果已有MaxCompute表,可以跳过这一步。

1.进入DataWorks控制台工作空间列表页面,鼠标悬停至目标工作空间对应操作列的快速进入,单击数据开发。

        image.png

2.单击左侧数据开发 > 鼠标悬停至+新建图标,单击新建业务流程,弹窗内输入业务名称,然后单击新建即可完成业务流程的创建。

image.png

image.png

3.鼠标悬停至+新建图标,单击新建节点 > MaxCompute > ODPS SQL,弹窗内输入对应的节点类型路径名称,然后单击提交完成新建节点。

image.png

image.png

4.新建节点完成后,即会跳出sql页面,输入sql语句单击运行即可进行表的创建。

CREATE TABLE IF NOT EXISTS tableName
(
  c1  STRING,
  c2  STRING
)
PARTITIONED BY
(
  p1  STRING
)
LIFECYCLE 3;

image.png

二、创建数据源

1. 登录DataWorks控制台
2. 单击左侧导航栏的工作空间列表,单击目标工作空间操作列对应的管理,进入工作空间管理中心。        
image.png
3. 在管理中心页面单击左侧数据源,待数据源页面加载完毕后,单击新增数据源。

image.png

3.1.创建LogHub数据源。

a.在新增数据源弹框中选择LogHub。


    image.png

b.填写新增LogHub数据源对话框中的配置。  

    image.png  


参数

描述

数据源名称

数据源名称必须以字母、数字、下划线组合,且不能以数字和下划线开头。

数据源描述

对数据源进行简单描述,不得超过80个字符。

LogHub Endpoint

LogHub的Endpoint,格式为http://example.com。详情请参见服务入口

Project

目标日志服务的项目名称。

AccessKey ID

访问密钥中的AccessKey ID,您可以进入控制台的用户信息管理页面进行复制。

AccessKey Secret

访问密钥中的AccessKey Secret,相当于登录密码。

  c.单击测试连通性

  d.连通性测试通过后,单击完成

3.2.创建MaxCompute数据源。⚠️注意:如果已绑定MaxCompute引擎,默认会已创建好一个名为odps_first的数据源,可以跳过此步骤。

a.在新增数据源弹框中选择MaxCompute。

image.png

b.填写新增MaxCompute数据源对话框中的配置。

      image.png

参数

描述

数据源名称

数据源名称必须以字母、数字、下划线组合,且不能以数字和下划线开头。

数据源描述

对数据源进行简单描述,不得超过80个字符。

ODPS Endpoint

MaxCompute的Endpoint,格式为http://example.com。详情请参见服务入口

ODPS项目名称

MaxCompute项目名称。

AccessKey ID

访问密钥中的AccessKey ID,您可以进入控制台的用户信息管理页面进行复制。

AccessKey Secret

访问密钥中的AccessKey Secret,相当于登录密码。

三、离线同步方式(如需实时同步,请参考第四步骤)

  1. 数据源页面,单击左上角的图标,选择全部产品 > DataStudio(数据开发)进入数据开发页面。


image.png

image.png    

  1. 数据开发页面,鼠标悬停至新建图标,单击业务流程


      image.png

  1. 新建业务流程对话框中,输入业务流程名称描述,单击新建
  2. 展开已创建的目标业务流程,右键单击数据集成,选择新建 > 离线同步

      image.png

  1. 新建节点对话框中,选择业务流程路径,并输入节点名称

      image.png

  1. 单击确认,进入离线节点编辑页面,如下图:

      image.png

  1. 参考下图进行配置并测试连通性。

      image.png

  1. 测试连通性为可连通后单击下一步
  2. 任务配置字段映射参考下图示例。

      image.png

image.png

image.png

 10.单击保存 > 运行 > 运行,即可开启任务投递。

      image.png

image.png

 11.可以在控制台下方区域查看运行的日志。

      image.png

四、实时同步方式(如需离线同步,请参考第三步骤)

  1. 数据源页面,单击左上角的图标,选择全部产品 > DataStudio(数据开发)进入数据开发页面。

      image.png

image.png

  1. 数据开发页面,鼠标悬停至新建图标,单击业务流程

      image.png

  1. 新建业务流程对话框中,输入业务流程名称描述,单击新建
  2. 展开已创建的目标业务流程,右键单击数据集成,选择新建 > 实时同步

      image.png

  1. 新建节点对话框中,选择业务流程路径,并输入节点名称,然后单击确定完成业务流程的创建。

      image.png

  1. 单击确认后,则会进入实时节点编辑页面,如下图:

      image.png

  1. 输入选项中LogHub输出选项中MaxCompute分别拖拽至实时节点编辑页面。

      image.png

  1. 单击Loghub后会弹出Loghub节点配置弹窗请参考下图进行配置。

      image.png

  1. 单击MaxCompute后会弹出MaxCompute节点配置弹窗请参考下图进行配置。

      image.png

 10. 单击右侧边栏基本配置会弹出基本配置弹窗请参考下图进行配置。

      image.png

 11. 进行字段映射配置,先通过鼠标对LoghubMaxCompute进行连接,然后单击MaxCompute进行字段映射配置,请参考下图。

      image.png                        

image.png

image.png


12.点击保存 > 提交

image.png

13.点击提交后会弹出提示框,单击确定即可完成任务提交,此时已完成实时同步任务的基本配置。。

14.单击右侧边栏运维进入运维中心页面。

      image.png

15.单击左侧实时同步任务,即可加载出已提交的实时同步任务信息,随后请在操作列单击启动按钮则会弹出启动弹窗提示如下。

      image.png

16.在启动弹窗中根据自己需求点选相关配置后单击确定即可启动任务,并在当前页面观察任务运行状态等信息。

      image.png

五、查看MaxCompute表中数据

参考第三步骤《通过Dataworks控制台创建MaxCompute表》进入sql页面编写sql查询语句如下:

语句1查询分区:SHOW PARTITIONS tablename;

语句2以指定分区为条件查询数据:SELECT * FROM tablename WHERE p1 = '1111111';

    image.png

六、常见问题

1.投递后数据为空常见原因
  • 检查原始数据中是否存在该字段(只能投递日志服务中的字段,不支持json嵌套字段投递)
  • 日志服务的字段名称填写是否正确
  • MaxComputer侧的字段类型是否正确,日志服务中类型与MaxComputer不一样,所以建议在MaxComputer中创建String类型字段重新投递


相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
打赏
0
0
0
0
4
分享
相关文章
SLS 重磅升级:超大规模数据实现完全精确分析
SLS 全新推出的「SQL 完全精确」模式,通过“限”与“换”的策略切换,在快速分析与精确计算之间实现平衡,满足用户对于超大数据规模分析结果精确的刚性需求。标志着其在超大规模日志数据分析领域再次迈出了重要的一步。
295 117
DataWorks: 驾驭数据浪潮,解锁用户画像分析新纪元
本文详细评测了DataWorks产品,涵盖最佳实践、用户体验、与其他工具对比及Data Studio新功能。内容涉及用户画像分析、数据管理作用、使用过程中的问题与改进建议,以及Data Studio的新版Notebook环境和智能助手Copilot的体验。整体评价肯定了DataWorks在数据处理和分析上的优势,同时也指出了需要优化的地方。
227 24
【赵渝强老师】MySQL InnoDB的数据文件与重做日志文件
本文介绍了MySQL InnoDB存储引擎中的数据文件和重做日志文件。数据文件包括`.ibd`和`ibdata`文件,用于存放InnoDB数据和索引。重做日志文件(redo log)确保数据的可靠性和事务的持久性,其大小和路径可由相关参数配置。文章还提供了视频讲解和示例代码。
277 11
【赵渝强老师】MySQL InnoDB的数据文件与重做日志文件
大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
140 4
大数据-44 Redis 慢查询日志 监视器 慢查询测试学习
大数据-44 Redis 慢查询日志 监视器 慢查询测试学习
88 3
【赵渝强老师】Oracle的联机重做日志文件与数据写入过程
在Oracle数据库中,联机重做日志文件记录了数据库的变化,用于实例恢复。每个数据库有多组联机重做日志,每组建议至少有两个成员。通过SQL语句可查看日志文件信息。视频讲解和示意图进一步解释了这一过程。
大数据-70 Kafka 高级特性 物理存储 日志存储 日志清理: 日志删除与日志压缩
大数据-70 Kafka 高级特性 物理存储 日志存储 日志清理: 日志删除与日志压缩
98 1
大数据-68 Kafka 高级特性 物理存储 日志存储概述
大数据-68 Kafka 高级特性 物理存储 日志存储概述
66 1
大数据-136 - ClickHouse 集群 表引擎详解1 - 日志、Log、Memory、Merge
大数据-136 - ClickHouse 集群 表引擎详解1 - 日志、Log、Memory、Merge
185 0

相关产品

  • 日志服务
  • AI助理

    你好,我是AI助理

    可以解答问题、推荐解决方案等