创建SSIS包—ETL中典型的数据清洗

简介: 前面我们熟悉了很多ELT任务,这一个节来讨论复杂点的数据清洗。这里我们要使用的数据源是.dat文件,这种文件在大型主机上,或者是比较老旧的应用系统中非常常见。这个例子的情景是一个信用卡公司,目前正着手于拓展Florida州新成立的一些公司的业务。

前面我们熟悉了很多ELT任务,这一个节来讨论复杂点的数据清洗。这里我们要使用的数据源是.dat文件,这种文件在大型主机上,或者是比较老旧的应用系统中非常常见。这个例子的情景是一个信用卡公司,目前正着手于拓展Florida州新成立的一些公司的业务。市场部门每周都会向这些公司发送一些邮件,我们要为所有的邮件准备抽取数据。假设Florida州提供的一个上面这个dat文件,它是从老的计算机系统里面得到的,它是定长分隔的,这意味着文件中没有分隔符,必须手工设置分隔列的长度。从下面的连接下载这个.dat文件:010305c.dat。如果使用工具查看,它们的模样类似下面的:

 
 
01 ANNUAL_MICRO_DATA_REC.
03 ANNUAL_COR_NUMBER PIC X( 12 ).
03 ANNUAL_COR_NAME PIC X( 48 ).
03 ANNUAL_COR_STATUS PIC X( 01 ).
03 ANNUAL_COR_FILING_TYPE PIC X( 15 ).
03 ANNUAL_COR_2ND_MAIL_ADD_1 PIC X( 42 ).
03 ANNUAL_COR_2ND_MAIL_ADD_2 PIC X( 42 ).
03 ANNUAL_COR_2ND_MAIL_CITY PIC X( 28 ).
03 ANNUAL_COR_2ND_MAIL_STATE PIC X( 02 ).
03 ANNUAL_COR_2ND_MAIL_ZIP PIC X( 10 ).
03 ANNUAL_COR_2ND_MAIL_COUNTRY PIC X( 02 ).
03 ANNUAL_COR_FILE_DATE PIC X( 08 ).
03 ANNUAL_COR_FEI_NUMBER PIC X( 14 ).
03 ANNUAL_MORE_THAN_SIX_OFF_FLAG PIC X( 01 ).
03 ANNUAL_LAST_TRX_DATE PIC X( 08 ).
03 ANNUAL_STATE_COUNTRY PIC X( 02 ).
03 ANNUAL_REPORT_YEAR_1 PIC X( 04 ).
03 ANNUAL_HOUSE_FLAG_1 PIC X( 01 ).
03 ANNUAL_REPORT_DATE_1 PIC X( 08 ).
03 ANNUAL_REPORT_YEAR_2 PIC X( 04 ).
03 ANNUAL_HOUSE_FLAG_2 PIC X( 01 ).
03 ANNUAL_REPORT_DATE_2 PIC X( 08 ).
03 ANNUAL_REPORT_YEAR_3 PIC X( 04 ).
03 ANNUAL_HOUSE_FLAG_3 PIC X( 01 ).
03 ANNUAL_REPORT_DATE_3 PIC X( 08 ).
03 ANNUAL_RA_NAME PIC X( 42 ).
03 ANNUAL_RA_NAME_TYPE PIC X( 01 ).
03 ANNUAL_RA_ADD_1 PIC X( 42 ).
03 ANNUAL_RA_CITY PIC X( 28 ).
03 ANNUAL_RA_STATE PIC X( 02 ).
03 ANNUAL_RA_ZIP5 PIC X( 05 ).
03 ANNUAL_RA_ZIP4 PIC X( 04 ).
03 ANNUAL_PRINCIPALS OCCURS 6 TIMES.
05 ANNUAL_PRINC_TITLE PIC X( 04 ).
05 ANNUAL_PRINC_NAME_TYPE PIC X( 01 ).
05 ANNUAL_PRINC_NAME PIC X( 42 ).
05 ANNUAL_PRINC_ADD_1 PIC X( 42 ).
05 ANNUAL_PRINC_CITY PIC X( 28 ).
05 ANNUAL_PRINC_STATE PIC X( 02 ).
05 ANNUAL_PRINC_ZIP5 PIC X( 05 ).
05 ANNUAL_PRINC_ZIP4 PIC X( 04 ).
03 FILLER PIC X( 04 ).

  

创建数据源

 这个文件的内容看上去不知所云,不可能像普通的文本文件一样处理它们。下面要建一个package来清洗和这个类似的数据,得到有用的信息。package完成下面的任务:

  • 从010305c.dat的存放路径下将文件内容抽取出来存放到本地数据库
  • 将文件归档避免多次下载
  • 当一列数据丢失,这一列需要自动重新添加
  • 当一行数据丢失,需要输出错误的行

新添加一个Package,重命名为CorporationLoad.dtsx,右击Connection Managers选择新添加一个连接,选择AdventureWorks。创建一个新的Flat File Connection连接,重命名为Corporation Extract连接到010305c.dat。这里不需要设置分隔符,而是选择定长格式,也不需要设置列分隔符,也没有必要选择第一行设置为列名选择项。

定长格式文件意味着每一列不是由分隔符来分隔,必须手动设置每一列的开始和结束。大多数的大型机文件都是这种格式,你会发现这种设置会有些繁琐。打开文件界面并推断每一列的开始位置。点击Column标签界面如图5-6。在Row Widh栏内输入1172字符(这个数字表示文件的开始)。

img_9742a8410b5155a3c74ad1cb286f65cf.png

图5-6

下一步,在列上设置竖直线标示每一列。在标尺刻度上左击设置竖直线,在这个例子中,可以使用下面的表中的提示来设置列。在竖直线上双击可以删除,左击拖动可以移动竖直线。

标尺刻度值

列名

12

CorporateNumber

60

CorporationName

61

CorporationStatus

65

FilingType

118

MailingAddressLine1

160

MailingAddressLine2

188

City

190

State

200

ZipCode

202

Country

210

FilingDate

224

FEINumber

1172

Records you will throw out

在这个表中可以看到丢弃了大部分数据。添加完竖直线之后,点击Advanced标签界面,点击Suggest Types,在Suggest Column Types对话框中接受默认设置,点击OK。默认数据类型设置会满足大部分的数据类型需要,但是也会有一些错误。在Column 8(ZipCode column)需要修改DataType选择项为String[DT_STR],OutputColumnWidth设置为10。最后修改Column 10为String[DT_STR],OutputColumnWidth保持默认,点击OK保存设置。

  

创建数据流

在Control Flow 界面内拖放一个Data Flow task,双击进入数据流标签界面。在界面中拖放一个Flat File数据源重命名为Uncleansed Corporate Data,双击并选择上文中新建的数据连接,点击进入Columns标签界面反选Column 11和Column 12,这意味着市场部门不需要这两列数据。在后面的工作中将添加Destination和数据转换任务。

  

处理脏数据

在进行下一步操作之前,先暂停来了解一下数据。我们创建了数据连接,你可能会注意到有一些数据行是空白的 ,例如city和state的一些记录是没有的。为了解决这个问题,需要使用一些任务将规范的的数据送到一个路径,有缺损的数据送到另一个路径。然后尝试清洗坏的数据并送回到主要路径中。也可能有一些不能清洗的数据,需要写入错误日志。

首先,设置邮政编码为5位字符,一些包含破折号的有10位字符,还有9位的。使用Derived Column转换来标准化,从工具栏中拖放一个Derived Column数据转换任务重命名为Standardize Zip Code。

使用箭头连线将Load Corporate Data和Standardize Zip Code连接起来,双击Standardize Zip Code打开编辑界面,展开左边栏中的Column树形结构,点击Column 8拖放到下方的表格内,这里会在表格内预先填入一些信息。为了输出5位邮政编码需要编写一个表达式只截取5位。使用SUBSTRING函数可以实现这种功能,代码如下:

SUBSTRING([Column 8],1,5)

在表格Expression列中输入上面代码,在Derived列中选择replace the existing Column 8,最后可以看到界面如图5-7,完成编辑后点击OK退出界面。img_51918a2ff54478fece0c00cc31ea2f07.png

图5-7

  

用Conditional Split进行数据转换

现在数据规范化了,从工具栏中拖放一个Conditional Split数据转换任务,使用箭头连线把它和Standardize Zip Code连接起来,将Conditional Split重命名为Find Bad Record。Conditional Split将把一些不符合要求的数据进行清洗。

为了去掉没有city或state的数据行,需要编写条件将缺失city或state的数据转移到一个数据流。双击Find Bad Record打开编辑界面,新建一个Missing State or City条件,在Output Name列内输入该名字。编写一个表达式来查找空的记录。一种方法是使用LTRIM函数。两个竖线|用来实现逻辑或。下面的代码用来查找Column 6和Column7。

LTRIM([Column 6]) == "" || LTRIM([Column 7]) == ""

最后要给不满足条件的数据命名。这里不满足上述条件的数据命名为Good Data,如图5-8

img_d9ae65a86a528888399b41fc1db52ef8.png

图5-8

  

使用Look Up转换数据

从工具栏中拖放LookUp数据转换重命名为Fix Bad Records,当你把它和上一个数据转换Find Bad Record连接起来的时候,将会弹出Input Output Selection对话框如图5-9。下拉列表框中选择Missing State or City选择项,点击OK。这将有缺损的数据从Find Bad Record中送出。

img_9971dc712c1ef315dd4364865b0a3efb.png

图5-9

LookUp转换可以根据数据库中ZipCode表中的数据来补全数据行中缺失的city和state。双击打开编辑界面,点击Connection标签界面,选择AdventureWorks数据源和ZipCode数据表。点击Columns标签界面,点击Column 8不放拖放到右边ZipCode列上,这样在两边的表上建立一个连线如图5-10。然后再右边表中选中State和City列,这两列会出现在下方的表格中,ZipName会替换Column 6,State会替换Column 7 如图5-10。点击OK退出编辑界面。

img_bf93acdc2f51cf5f5c69af1f5dd6aeca.png

图5-10

  

使用Union All合并

现在数据被清洗,要使用Union All转换将清洗后的数据送回到主要数据流中。在工具栏中拖放一个Union All转换,从Fix Bad Records向Union All拖放一个连线,从Find Bad Records向Union拖放一个连线,Union All不再需要其他配置。

  

最后设置

最后需要将数据流送到一个OLE DB 目的中。从工具栏中拖放一个OLE DB Destination,重命名为Mail Merge Table。从Union All向它拖放一个连线,双击选择AdventureWorks数据源,Use a Table or View选择项中点击New button。默认的建表语句使用的是表名是Mail Merge Table,数据类型可能有些不是很合适的,代码如下:

 
 
CREATE TABLE [ Mail Merge Table ] (
[ Column 0 ] VARCHAR ( 12 ),
[ Column 1 ] VARCHAR ( 48 ),
[ Column 2 ] VARCHAR ( 1 ),
[ Column 3 ] VARCHAR ( 4 ),
[ Column 4 ] VARCHAR ( 53 ),
[ Column 5 ] VARCHAR ( 42 ),
[ Column 6 ] VARCHAR ( 28 ),
[ Column 7 ] VARCHAR ( 2 ),
[ Column 8 ] VARCHAR ( 10 ),
[ Column 9 ] VARCHAR ( 2 ),
[ Column 10 ] VARCHAR ( 10 )
)

修改代码中的表名和列名,修改后的代码如下:

 
 
CREATE TABLE MarketingCorporation(
CorporateNumber
varchar ( 12 ),
CorporationName
varchar ( 48 ),
FilingStatus
char ( 1 ),
FilingType
char ( 4 ),
AddressLine1
varchar ( 53 ),
AddressLine2
varchar ( 42 ),
City
varchar ( 28 ),
State
char ( 2 ),
ZipCode
varchar ( 10 ),
Country
char ( 2 ),
FilingDate
varchar ( 50 ) NULL
)

由于列名是不同的需要点击Mapping标签将列对应起来。

  

处理更多的脏数据

这个Package基本上完成了,但是这里有一个致命的缺陷。010305c.dat这个文件中有一些多余的数据,在Find Bad Records和Fix Bad Records之间添加一个data viewer可以查看这些多余的数据。

这样可以查看在010305c.dat文件中有4条数据被Fix Bad Records处理,只有2条被清洗。另外2条不能被定为到Fix Bad Records中。在这个Package的需求中有一条是为市场部门提供一份地址列表用在邮件内容中。下图5-11中显示了错误所在。

img_a1592fba1875deb4b82fe3ea20629fe4.png

图5-11

在输出界面中你可以看到如下的错误信息:

Error: 0xC020901E at Load Corporate Data, Fix Bad Records [87]: Row yielded no

match

during lookup.

Error: 0xC0209029 at Load Corporate Data, Fix Bad Records [87]: The "component "Fix

Bad

Records" (87)" failed because error code 0xC020901E occurred, and the error row

disposition on "output "Lookup Output" (89)" specifies failure on error. An error

occurred on the specified object of the specified component.

Error: 0xC0047022 at Load Corporate Data, DTS.Pipeline: The ProcessInput method on

component "Fix Bad Records" (87) failed with error code 0xC0209029. The identified

component returned an error from the ProcessInput method. The error is specific to

the

component, but the error is fatal and will cause the Data Flow task to stop

running.

Error: 0xC0047021 at Load Corporate Data, DTS.Pipeline: Thread "WorkThread0" has

exited

with error code 0xC0209029.

Error: 0xC0047039 at Load Corporate Data, DTS.Pipeline: Thread "WorkThread1"

received a

shutdown signal and is terminating. The user requested a shutdown, or an error in

another

thread is causing the pipeline to shutdown.

Error: 0xC0047021 at Load Corporate Data, DTS.Pipeline: Thread "WorkThread1" has

exited

with error code 0xC0047039.

  

不能因为这些错误提示而放弃这个Package,需要将错误信息输入到错误消息队列中以备查看。需要创建一个ErrorQueue表,从工具栏中拖放一个Audit转换,重命名为Add Auditing Info,从Fix Bad Records中拖拽红色箭头连线连接到Add Auditing Info。

如图5-12,可以看到Configure Error Output对话框,在这个对话框中配置如果错误出现时SSIS如何反应。Truncation列表明如果一行太长而不能加入到转换中时所作的反应。Error列表明遇到转换错误时如何反应。在Description列中可以看到期望捕获的错误。例如对于Lookup转换,需要捕获的错误是lookup failure,意思是lookup转换不能找到对应的输入。在这个例子中选择错误类型如图5-10。默认情况会使任务失败,结果会使整个Package失败。也可以从下拉列表中选择完全忽略错误。

img_e982e34e4ebdd971eb9bb59beeb8b780.png

图5-10

完成配置之后点击OK退出界面。

错误处理之后,双击Audit transform打开编辑界面,添加两列。继续添加两列,在Audit Type列中选择Task Name和Package Name,Output Column Name默认同名,去掉名字中的空格,如图5-13。由于可能有多个Package向表中写入数据,所以这些信息是必须的。

img_3b3631f6216d7cb06a14904992661d69.png

图5-13

最后的工作是将脏数据送入到SQL Server中的ErrorQueue表中,从工具栏中拖放另外一个OLE DB目的,重命名为Error Queue,双击选择AdventureWorks数据源,点击New新添加一个表,重命名表名ErrorQueue,代码如下:

 
 
CREATE TABLE ErrorQueue(
CorporateNumber
varchar ( 12 ),
CorporationName
varchar ( 48 ),
FilingStatus
char ( 1 ),
FilingType
char ( 4 ),
AddressLine1
varchar ( 53 ),
AddressLine2
varchar ( 42 ),
City
varchar ( 28 ),
State
char ( 2 ),
ZipCode
varchar ( 10 ),
Country
char ( 2 ),
FilingDate
varchar ( 10 ) NULL ,
ErrorCode
INT ,
ErrorColumn
INT ,
TaskName
NVARCHAR ( 19 ),
PackageName
NVARCHAR ( 30 )
)

注意:可以看到这个表中的信息是很笼统的。

这次需要点击mapping将列一一对应起来,点击OK退出编辑界面。现在可以执行这个Package了,4条记录被清洗,2条送到error queue。执行成功之后的界面如图5-14。

img_c6418cc6dc4a9f202644d31989650026.png

图5-14

作者:Tyler Ning
出处:http://www.cnblogs.com/tylerdonet/
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,如有问题,可以通过以下邮箱地址williamningdong@gmail.com  联系我,非常感谢。

目录
相关文章
|
7月前
|
数据采集 数据可视化 数据挖掘
数据清洗有什么方式
数据清洗有什么方式
|
2月前
|
Java
ETL工具 Kettle 中 kettle循环传递变量_(最简单的方法)
本文详细介绍了如何在Kettle工具中使用循环传递变量,通过示例展示了如何将movies表数据按月插入到ods_movies表,涉及新建转换、获取变量、作业配置和执行,呈现了一个嵌套作业结构.
145 3
|
4月前
|
大数据 机器人 数据挖掘
这个云ETL工具配合Python轻松实现大数据集分析,附案例
这个云ETL工具配合Python轻松实现大数据集分析,附案例
|
4月前
|
SQL 存储 数据管理
掌握SQL Server Integration Services (SSIS)精髓:从零开始构建自动化数据提取、转换与加载(ETL)流程,实现高效数据迁移与集成——轻松上手SSIS打造企业级数据管理利器
【8月更文挑战第31天】SQL Server Integration Services (SSIS) 是 Microsoft 提供的企业级数据集成平台,用于高效完成数据提取、转换和加载(ETL)任务。本文通过简单示例介绍 SSIS 的基本使用方法,包括创建数据包、配置数据源与目标以及自动化执行流程。首先确保安装了 SQL Server Data Tools (SSDT),然后在 Visual Studio 中创建新的 SSIS 项目,通过添加控制流和数据流组件,实现从 CSV 文件到 SQL Server 数据库的数据迁移。
272 0
|
7月前
|
存储 数据采集 数据挖掘
ETL是个什么样的过程
【5月更文挑战第11天】ETL是个什么样的过程
137 2
|
7月前
|
SQL 存储 数据库
两个Python脚本轻松解决ETL工作:统计多个服务器下所有数据表信息
两个Python脚本轻松解决ETL工作:统计多个服务器下所有数据表信息
|
7月前
|
SQL 存储 数据库
两个Python脚本轻松解决ETL工作:统计多个服务器下所有数据表信息(1)
两个Python脚本轻松解决ETL工作:统计多个服务器下所有数据表信息(1)
|
消息中间件 分布式计算 BI
ETL和ELT到底有啥区别???
ETL和ELT到底有啥区别???
|
数据采集 运维 Ubuntu
使用kettle进行数据采集处理与数据关联操作
使用kettle进行数据采集处理与数据关联操作
|
SQL Oracle 关系型数据库
「集成架构」2020年最好的15个ETL工具(第二部)
「集成架构」2020年最好的15个ETL工具(第二部)