使用kettle进行数据采集处理与数据关联操作

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: 使用kettle进行数据采集处理与数据关联操作

申明: 未经许可,禁止以任何形式转载,若要引用,请标注链接地址

全文共计1608字,阅读大概需要3分钟

一、任务描述

本实验任务主要完成基于ubuntu环境的使用kettle进行数据采集处理与数据关联操作的工作。通过完成本实验任务,要求学生熟练掌握使用kettle进行数据采集处理与数据关联操作的方法,为后续实验的开展奠定ETL平台基础,也为从事大数据平台运维工程师、大数据技术支持工程师等岗位工作奠定夯实的技能基础。


二、任务目标

1、掌握使用kettle进行数据采集处理与数据关联操作


三、任务环境

Ubuntu16.04、Java1.8、Kettle7.1


四、任务分析

Kettle 中文名称叫水壶,该项目的主程序员MATT 希望把各种数据放到一个壶里,然后以一种指定的格式流出。

 Kettle这个ETL工具集,它允许你管理来自不同数据库的数据,通过提供一个图形化的用户环境来描述你想做什么,而不是你想怎么做。

 Kettle中有两种脚本文件,transformation和job,transformation完成针对数据的基础转换,job则完成整个工作流的控制。


五、 任务实施

步骤1、环境准备

右击Ubuntu操作系统桌面,从弹出菜单中选择【Open Terminal Here】命令 打开终端。

 启动kettle。

c2dec417a7ae4b459e7c0ca9cde9cf8d.png



图1 启动kettle


步骤2、创建Transformmations

新建一个”Transformmations”(双击Transformmations即可),然后选择”Design”栏,将”Input”下的”CSV input”(2个)和”Transform”栏下的”Select values”,”Sort rows”,然后是”Lookup”下的”Stream lookup”以及”Output”栏下的”Table output”六个图标拖进工作区。按住Shift键,鼠标拖拽”Table input”图标到”Stream lookup”图标上,产生连线。同理其他的线也连上。注意箭头方向。如图2所示


9dcfcf1b9e5a4852b46156421f3d55e7.png


图2 创建Transformmations

 设置”CSV input”相关内容(双击图表即可)。如图3-4所示。


736cc65b6e604af38b30e30c80950eb4.png


图3 设置”CSV input”相关内容


6e1cff2f29b344dcbeb4979ffa364dd4.png


图4 设置”CSV input”相关内容

 设置”CSV input 2”相关内容(双击图表即可)。如图5-6所示。


a2e92385aac54002881970fc5212dc16.jpg


图5 设置”CSV input 2”相关内容


dfc1be3422234b17aa7aea3c60279c6e.png


图6 设置”CSV input 2”相关内容

 设置”Select values”相关内容(双击图表即可)。如图7所示。


2d668d1242bb47a4a9110f8ba9e39245.jpg


图7 设置”Select values”相关内容

 设置”Stream lookup”相关内容(双击即可)。如图8-9所示。


ae930e123eb947648064ba5d7a0c6956.jpg


图8 设置”Stream lookup”


8ca5b15edf17490596a4cf1a92f7235a.png


图9 设置完毕

 设置”Sort rows”相关参数。如图10所示。


82c9e5517bdc4e25881aa95d7e3d33a1.png


图10 设置”Sort rows”

 开启mysql服务。如图11所示。


71b5825d7d5245dc88067b921734efe5.png


图11 开启mysql

 设置”Table output”相关参数,双击”Table output”即可,mysql数据库密码为”root”。如图12所示。


482e6b47071d4f5a902a6cc3cdb4a71b.png


图12 设置”Table output”

 设置目标表。如图13所示。


5e53c3f654fe4734869e39665407dba6.png


图13 设置目标表

 设置字段映射,最后点击”OK”完成整个设置。如图14所示。


fe887fef5cda4effb6e26a6d944a80a4.png


图14 设置字段映射


步骤3、运行任务

运行,清洗好的数据,批量导入到数据库。如图15-16所示。


786cb766c8964a2092cdb8fc3f9bcf7d.png


图15 运行任务

15087f5069e94a1db26152ac98e1a1c2.png



图16 保存任务

 查看运行结果。如图17所示。

71d2c6ac2762486eb06a17ddc7418dea.png



图17 查看运行结果

 重新打开一个终端,进入mysql,切换到kettleDB数据库,检验记录是否导入。如图18-19所示。

469a711c373240e29d02fc6284ea2604.png



图18 进入数据库


94fc0e23dcbe45af8eca2d7e5e7f7b61.jpg


图19 查看表数据


♥ 知识链接

Output Stream

一个Output Stream 是离开一个步骤时的行的堆栈。


♥ 温馨提示

Value:Value 是行的一部分,并且是包含以下类型的的数据:Strings、floating point Numbers、unlimited precision BigNumbers、Integers、Dates、或者Boolean。


相关实践学习
如何在云端创建MySQL数据库
开始实验后,系统会自动创建一台自建MySQL的 源数据库 ECS 实例和一台 目标数据库 RDS。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
7月前
|
数据库连接 数据库
kettle开发篇-流查询
kettle开发篇-流查询
173 0
|
7月前
|
SQL 存储 数据库
两个Python脚本轻松解决ETL工作:统计多个服务器下所有数据表信息
两个Python脚本轻松解决ETL工作:统计多个服务器下所有数据表信息
|
7月前
|
SQL 存储 数据库
两个Python脚本轻松解决ETL工作:统计多个服务器下所有数据表信息(1)
两个Python脚本轻松解决ETL工作:统计多个服务器下所有数据表信息(1)
|
7月前
|
SQL 分布式计算 MaxCompute
实时数仓 Hologres产品使用合集之哪里可以后置操作执行一下 analysis 这样的操作
实时数仓Hologres是阿里云推出的一款高性能、实时分析的数据库服务,专为大数据分析和复杂查询场景设计。使用Hologres,企业能够打破传统数据仓库的延迟瓶颈,实现数据到决策的无缝衔接,加速业务创新和响应速度。以下是Hologres产品的一些典型使用场景合集。
|
SQL 数据采集 分布式计算
大数据数据采集的数据迁移(同步/传输)的Sqoop之基本命令和使用的导入/导出数据
在大数据领域,数据迁移(同步/传输)也是非常重要的一环。Sqoop作为一个开源的数据迁移工具,可以帮助我们轻松地实现关系型数据库与Hadoop之间的数据迁移。本文将会对Sqoop的基本命令和使用进行详细介绍。
407 1
|
运维 Ubuntu 关系型数据库
使用kettle进行多复合来源数据的采集与关联
使用kettle进行多复合来源数据的采集与关联
|
数据采集 SQL 分布式计算
大数据数据采集的数据迁移(同步/传输)的Sqoop之基本命令和使用的查询库/表
在大数据领域中,Sqoop是一款非常流行的数据迁移工具。它可以将关系型数据库中的数据快速地移动到Hadoop生态系统中,方便我们进行更深入的分析和处理。本文将介绍Sqoop的基本命令及如何使用Sqoop来查询库表,希望能够为大家提供一些参考和帮助。
193 0
|
SQL 分布式计算 Ubuntu
8-点击流数据分析项目-Hive分析
文章目录 8-点击流数据分析项目-Hive分析 一、环境准备与数据导入 1.开启hadoop 2.导入数据
8-点击流数据分析项目-Hive分析
|
Oracle 关系型数据库 MySQL
ETL(十):异构关联(联接器转换组件的使用)(三)
ETL(十):异构关联(联接器转换组件的使用)(三)
ETL(十):异构关联(联接器转换组件的使用)(三)