使用dataworks投递日志服务数据到MaxCompute

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 日志服务提供了多种投递数据的方式,如: 在控制台直接配置投递任务,通过消费组获取数据然后再投递。控制台直接投递配置方式与dataworks类似,不过配置项更少,更容易操作。

背景

本文将为您介绍如何通过数据集成(DataWorks)功能投递LogHub(SLS)数据至MaxCompute。

前提条件

总览

  1. 首先,需要确定日志服务中存在可供投递的数据;
  2. 然后,在DataWorks控制台中创建工作空间,以及日志服务的数据源、MaxComputer的数据源、MaxCompute的目标表;
  3. 最后,创建投递任务。

投递流程

一、通过Dataworks控制台创建MaxCompute表

温馨提示:如果已有MaxCompute表,可以跳过这一步。

1.进入DataWorks控制台工作空间列表页面,鼠标悬停至目标工作空间对应操作列的快速进入,单击数据开发。

        image.png

2.单击左侧数据开发 > 鼠标悬停至+新建图标,单击新建业务流程,弹窗内输入业务名称,然后单击新建即可完成业务流程的创建。

image.png

image.png

3.鼠标悬停至+新建图标,单击新建节点 > MaxCompute > ODPS SQL,弹窗内输入对应的节点类型路径名称,然后单击提交完成新建节点。

image.png

image.png

4.新建节点完成后,即会跳出sql页面,输入sql语句单击运行即可进行表的创建。

CREATE TABLE IF NOT EXISTS tableName
(
  c1  STRING,
  c2  STRING
)
PARTITIONED BY
(
  p1  STRING
)
LIFECYCLE 3;

image.png

二、创建数据源

1. 登录DataWorks控制台
2. 单击左侧导航栏的工作空间列表,单击目标工作空间操作列对应的管理,进入工作空间管理中心。        
image.png
3. 在管理中心页面单击左侧数据源,待数据源页面加载完毕后,单击新增数据源。

image.png

3.1.创建LogHub数据源。

a.在新增数据源弹框中选择LogHub。


    image.png

b.填写新增LogHub数据源对话框中的配置。  

    image.png  


参数

描述

数据源名称

数据源名称必须以字母、数字、下划线组合,且不能以数字和下划线开头。

数据源描述

对数据源进行简单描述,不得超过80个字符。

LogHub Endpoint

LogHub的Endpoint,格式为http://example.com。详情请参见服务入口

Project

目标日志服务的项目名称。

AccessKey ID

访问密钥中的AccessKey ID,您可以进入控制台的用户信息管理页面进行复制。

AccessKey Secret

访问密钥中的AccessKey Secret,相当于登录密码。

  c.单击测试连通性

  d.连通性测试通过后,单击完成

3.2.创建MaxCompute数据源。⚠️注意:如果已绑定MaxCompute引擎,默认会已创建好一个名为odps_first的数据源,可以跳过此步骤。

a.在新增数据源弹框中选择MaxCompute。

image.png

b.填写新增MaxCompute数据源对话框中的配置。

      image.png

参数

描述

数据源名称

数据源名称必须以字母、数字、下划线组合,且不能以数字和下划线开头。

数据源描述

对数据源进行简单描述,不得超过80个字符。

ODPS Endpoint

MaxCompute的Endpoint,格式为http://example.com。详情请参见服务入口

ODPS项目名称

MaxCompute项目名称。

AccessKey ID

访问密钥中的AccessKey ID,您可以进入控制台的用户信息管理页面进行复制。

AccessKey Secret

访问密钥中的AccessKey Secret,相当于登录密码。

三、离线同步方式(如需实时同步,请参考第四步骤)

  1. 数据源页面,单击左上角的图标,选择全部产品 > DataStudio(数据开发)进入数据开发页面。


image.png

image.png    

  1. 数据开发页面,鼠标悬停至新建图标,单击业务流程


      image.png

  1. 新建业务流程对话框中,输入业务流程名称描述,单击新建
  2. 展开已创建的目标业务流程,右键单击数据集成,选择新建 > 离线同步

      image.png

  1. 新建节点对话框中,选择业务流程路径,并输入节点名称

      image.png

  1. 单击确认,进入离线节点编辑页面,如下图:

      image.png

  1. 参考下图进行配置并测试连通性。

      image.png

  1. 测试连通性为可连通后单击下一步
  2. 任务配置字段映射参考下图示例。

      image.png

image.png

image.png

 10.单击保存 > 运行 > 运行,即可开启任务投递。

      image.png

image.png

 11.可以在控制台下方区域查看运行的日志。

      image.png

四、实时同步方式(如需离线同步,请参考第三步骤)

  1. 数据源页面,单击左上角的图标,选择全部产品 > DataStudio(数据开发)进入数据开发页面。

      image.png

image.png

  1. 数据开发页面,鼠标悬停至新建图标,单击业务流程

      image.png

  1. 新建业务流程对话框中,输入业务流程名称描述,单击新建
  2. 展开已创建的目标业务流程,右键单击数据集成,选择新建 > 实时同步

      image.png

  1. 新建节点对话框中,选择业务流程路径,并输入节点名称,然后单击确定完成业务流程的创建。

      image.png

  1. 单击确认后,则会进入实时节点编辑页面,如下图:

      image.png

  1. 输入选项中LogHub输出选项中MaxCompute分别拖拽至实时节点编辑页面。

      image.png

  1. 单击Loghub后会弹出Loghub节点配置弹窗请参考下图进行配置。

      image.png

  1. 单击MaxCompute后会弹出MaxCompute节点配置弹窗请参考下图进行配置。

      image.png

 10. 单击右侧边栏基本配置会弹出基本配置弹窗请参考下图进行配置。

      image.png

 11. 进行字段映射配置,先通过鼠标对LoghubMaxCompute进行连接,然后单击MaxCompute进行字段映射配置,请参考下图。

      image.png                        

image.png

image.png


12.点击保存 > 提交

image.png

13.点击提交后会弹出提示框,单击确定即可完成任务提交,此时已完成实时同步任务的基本配置。。

14.单击右侧边栏运维进入运维中心页面。

      image.png

15.单击左侧实时同步任务,即可加载出已提交的实时同步任务信息,随后请在操作列单击启动按钮则会弹出启动弹窗提示如下。

      image.png

16.在启动弹窗中根据自己需求点选相关配置后单击确定即可启动任务,并在当前页面观察任务运行状态等信息。

      image.png

五、查看MaxCompute表中数据

参考第三步骤《通过Dataworks控制台创建MaxCompute表》进入sql页面编写sql查询语句如下:

语句1查询分区:SHOW PARTITIONS tablename;

语句2以指定分区为条件查询数据:SELECT * FROM tablename WHERE p1 = '1111111';

    image.png

六、常见问题

1.投递后数据为空常见原因
  • 检查原始数据中是否存在该字段(只能投递日志服务中的字段,不支持json嵌套字段投递)
  • 日志服务的字段名称填写是否正确
  • MaxComputer侧的字段类型是否正确,日志服务中类型与MaxComputer不一样,所以建议在MaxComputer中创建String类型字段重新投递


相关实践学习
【涂鸦即艺术】基于云应用开发平台CAP部署AI实时生图绘板
【涂鸦即艺术】基于云应用开发平台CAP部署AI实时生图绘板
目录
相关文章
|
2月前
|
机器学习/深度学习 传感器 分布式计算
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
184 14
|
2月前
|
传感器 人工智能 监控
数据下田,庄稼不“瞎种”——聊聊大数据如何帮农业提效
数据下田,庄稼不“瞎种”——聊聊大数据如何帮农业提效
139 14
|
1月前
|
传感器 人工智能 监控
拔俗多模态跨尺度大数据AI分析平台:让复杂数据“开口说话”的智能引擎
在数字化时代,多模态跨尺度大数据AI分析平台应运而生,打破数据孤岛,融合图像、文本、视频等多源信息,贯通微观与宏观尺度,实现智能诊断、预测与决策,广泛应用于医疗、制造、金融等领域,推动AI从“看懂”到“会思考”的跃迁。
|
2月前
|
机器学习/深度学习 传感器 监控
吃得安心靠数据?聊聊用大数据盯紧咱们的餐桌安全
吃得安心靠数据?聊聊用大数据盯紧咱们的餐桌安全
105 1
|
2月前
|
数据采集 自动驾驶 机器人
数据喂得好,机器人才能学得快:大数据对智能机器人训练的真正影响
数据喂得好,机器人才能学得快:大数据对智能机器人训练的真正影响
208 1
|
4月前
|
数据采集 分布式计算 DataWorks
ODPS在某公共数据项目上的实践
本项目基于公共数据定义及ODPS与DataWorks技术,构建一体化智能化数据平台,涵盖数据目录、归集、治理、共享与开放六大目标。通过十大子系统实现全流程管理,强化数据安全与流通,提升业务效率与决策能力,助力数字化改革。
161 4
|
3月前
|
机器学习/深度学习 运维 监控
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
147 0
|
4月前
|
分布式计算 DataWorks 数据处理
在数据浪潮中前行:记录一次我与ODPS的实践、思考与展望
本文详细介绍了在 AI 时代背景下,如何利用阿里云 ODPS 平台(尤其是 MaxCompute)进行分布式多模态数据处理的实践过程。内容涵盖技术架构解析、完整操作流程、实际部署步骤以及未来发展方向,同时结合 CSDN 博文深入探讨了多模态数据处理的技术挑战与创新路径,为企业提供高效、低成本的大规模数据处理方案。
296 3
|
4月前
|
SQL 人工智能 分布式计算
ODPS:数据浪潮中的成长与突围
本文讲述了作者在大数据浪潮中,通过引入阿里云ODPS体系(包括MaxCompute、DataWorks、Hologres)解决数据处理瓶颈、实现业务突破与个人成长的故事。从被海量数据困扰到构建“离线+实时”数据架构,ODPS不仅提升了数据处理效率,更推动了技术能力与业务影响力的双重跃迁。
|
4月前
|
SQL 人工智能 分布式计算
在数据浪潮中前行:我与ODPS的实践、思考与展望
在数据驱动决策的时代,企业如何高效处理海量数据成为数字化转型关键。本文结合作者实践,深入解析阿里云自研大数据平台 ODPS 的技术优势与应用场景,涵盖 MaxCompute、DataWorks、Hologres 等核心产品,分享从数据治理到实时分析的落地经验,并展望其在 AI 与向量数据时代的发展前景。
231 70

相关产品

  • 日志服务