框架搭建_Kudu工具类_隐式转换|学习笔记

简介: 快速学习框架搭建_Kudu工具类_隐式转换

开发者学堂课程【2020版大数据实战项目之DMP广告系统(第四阶段)框架搭建_Kudu工具类_隐式转换】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/679/detail/11803


框架搭建_Kudu工具类_隐式转换


内容介绍:

一、编写工具类

二、结构搭建


一、编写工具类

已经对数据库读写工具类的整体思路进行了简单的陈述那接下来就要编写工具类。整体上的步骤还是两大步。先进入 idea 当中,把对应的类创建出来。先创建 scala ,叫做 kudu helper ,添加一个 object ,也叫 kudu helper 。是一个伴生对象,整体思路就是进行隐式转换的开发,我们的目的是把 spart 转成 kudu helper 的对象。接下来把 data frame 转为 kudu helper 对象,因为 data frame 当中,可以取到 spark session ,可以直接让 spark session 的功能, frame 也可以有,因为 data frame 当中可以拿到 spark session 。第三个功能把 date from 写为表,写入数据,这是三大功能。第一个视频先对整体结构进行搭建,第二个视频再去填具体的功能。

Import org.apache.spark.sql.{datafram,sparksession}

Class kuduhelper{

Def this(spark:sparksession)={

This()

}

Def this(dateest:dateset[any])={

This(dateset.sparksession)

}

//一:隐式转换,sparksession->kuduhelper dataframe->kuduhelper

/**

*设计隐式转换的时候,只需要考虑一件事,把 xx 转为 yy

*xx 是 sparksession ,转换函数的传入参数就是 sparksession

*yy 是 kuduhelper , 转换给函数的结果类型应该就是 kuduhelper

*/

Implicit def sparksessionToKuduHelper(spark:sparksession):kuduhelper={

New kuduhelper(speak)

}

Implicit def dataFrameToKudu(dataFrame:dataframe):kuduhelper{

New kuduhelper(dateset)

}

//二:具体功能的开发

//1.创建表

//2.读取表

第二步,进行具体功能的开发,第一个功能,创建表。第二个功能,读取表。

//3.写入数据

}

Object kuduhelper{


二、结构搭建

第一个隐式转换,提供 spark session 转为 kudu helper , date frame 转为 kudu helper ,那么应该写两个 implicit ,第一个定义为 spartsession ,然后 spartsession to kuDu helpe,在设计隐式转换的时候,只需要考虑一件事,就是把 xx 转为 YY , xx 是 spark session 。如果 xx 是 spark session ,解决方法也是转换函数,传入参数。 Xx 是 spark session , YY 是 kuduhelper 。如果 YY 是 kuduhelper ,转换函数的传出参数,也就是结果参数函数的结果类型就是 kutuhelper 。首先参数是 spark 。把 spark session 转为 kudu helper 类型对象。方法就完成了,要创建出来 kudu helper ,第一个是 implicit spartsession to kudu ,然后 Implicit def sparksessionToKuduHelper ,传入参数,把 data frame 转为 kudu helper ,接收 data frame 对应的类型,也是 data frame 那么第二个隐式转换也完成了。\但是如果只是 date frame 还不够,因为 data frame 其实就是 data set ,所以可以接收 data set 。接收 data set 以后,必须需要去给它标注一个东西,把 data frame 去掉,报错的原因,是因为必须要把 any 型写上去,可以传案例,这个案例就表示任何的 set 其实都可以。

继续看就有两件事了,第一件事,把 spark session 转为 kudu helper ,第二件事,把 dataset 转为 kudu helper, kuduhelper 当中,应该提供两个构造函数,一个是接收 spark session 去创建的,还有一个是接收 data set 创建的,可以 def 两个 this ,第一个 this ,接收 spark session 。第二个 this 接收 data set 。构造函数创建出来。接下来在每一个里,都要调用一下最根部的构造。接下来也要调用一下 spark session 的构造。拿到 data set 中的 spark session ,把它传进去,其实调用的是前面 spark session 构造。两个构造写完 new  kudu helper ,接收 spark session ,第二个 kudu helper 当中接收 data set 。这时整个代码就写完了。接下来进行具体功能的开发。

相关文章
|
存储 SQL 大数据
Hive介绍与核心知识点
Hive Hive简介 Facebook为了解决海量日志数据的分析而开发了Hive,后来开源给了Apache软件基金会。 官网定义: The Apache Hive ™ data warehouse software facilitates reading, writing, and managing large datasets residing in distributed storage using SQL. Hive是一种用类SQL语句来协助读写、管理那些存储在分布式存储系统上大数据集的数据仓库软件。
4425 0
|
5月前
|
SQL XML JSON
Hive函数全解——思维导图 + 七种函数类型
Hive函数全解——思维导图 + 七种函数类型
89 2
Hive函数全解——思维导图 + 七种函数类型
|
5月前
|
消息中间件 分布式计算 Kafka
硬核!Apache Hudi中自定义序列化和数据写入逻辑
硬核!Apache Hudi中自定义序列化和数据写入逻辑
120 1
|
5月前
|
存储 Apache 索引
一文彻底弄懂Apache Hudi不同表类型
一文彻底弄懂Apache Hudi不同表类型
123 1
|
5月前
|
SQL Java easyexcel
【Java】百万数据excel导出功能如何实现
【Java】百万数据excel导出功能如何实现
317 0
|
5月前
|
存储 SQL 关系型数据库
Apache Doris 聚合函数源码阅读与解析|源码解读系列
Apache Doris Active Contributor 隐形通过本文记录下对源码的理解,以方便新人快速上手源码开发。
Apache Doris 聚合函数源码阅读与解析|源码解读系列
|
SQL JSON 搜索推荐
java操作ElasticSearch(包含增删改查及基础语法操作)(一)
java操作ElasticSearch(包含增删改查及基础语法操作)
402 0
java操作ElasticSearch(包含增删改查及基础语法操作)(一)
|
分布式计算 Java Spark
|
存储 SQL Web App开发
阿里一面:Flink的类型与序列化怎么做的
阿里一面:Flink的类型与序列化怎么做的
405 0
阿里一面:Flink的类型与序列化怎么做的
|
大数据 数据库 开发者
框架搭建_Kudu工具类_介绍|学习笔记
快速学习框架搭建_Kudu工具类_介绍
100 0
框架搭建_Kudu工具类_介绍|学习笔记
下一篇
无影云桌面