E-MapReduce中Spark 2.x读写MaxCompute数据

本文涉及的产品
EMR Serverless StarRocks,5000CU*H 48000GB*H
简介: 最新的`aliyun-emapreduce-sdk`将`MaxCompute`数据以`DataSource`的方式接入Spark 2.x,用户可以使用类似Spark 2.x中读写`json/parquet/csv`的方式来访问MaxCompute.

最新的aliyun-emapreduce-sdkMaxCompute数据以DataSource的方式接入Spark 2.x,用户可以使用类似Spark 2.x中读写json/parquet/csv的方式来访问MaxCompute.

0. DataSource

a) DataSource提供了一种插件式的外部数据接入SparkSQL的方式,数据源只要实现相应的DataSource API即可以整合进SparkSQL,它的特点如下:

  • 通过DataSet/DataFrame/sparkSQLText等标准方式来访问数据源
  • SparkSQL引擎优化
  • scala语言接入后,Spark支持的其它语言也可以进行访问,如pyspark等

Spark 2.x内置支持的数据源:

  • json
  • csv
  • parquet
  • orc
  • text
  • jdbc

Spark 2.x 访问数据源示例:

b) 读数据

  val df = spark.read.json("pathToJson")
  
  // 提供schema信息
  val schemaType = StructType(Seq(
    StructField("year", IntegerType, nullable = true))
  spark.read.schema(schemaType)json("pathToJson")

  // 带一些参数设置,如csv的分隔符等
  spark.read.option("header", "false").option("sep", ",").csv("pathToCsv"")
  
  // load api, 等同于spark.read.json("pathToLoad")
  spark.read.format("json").load("pathToLoad")
  
  // sql方式访问
  df.createOrReplaceTempView("t")
  spark.sql("select * from t")

c) 写数据

  val df = Seq(1, 2, 3).toDF("a")
  df.write.json("jsonWritePath")
  
  // 等同上面写法
  df.write.format("json").save("jsonWritePath")

  
  // 带参数
  df.write
    .option("header", "true")
    .option("compression", "gZiP")
    .csv("csvWritePath")

  // 路径存在,则覆盖
  df.write.mode("overwrite").json("jsonWritePath")

d)sparkSQLText using DataSource

   spark.sql("create table t(a string) using json")
   spark.sql("insert int table t select 1")
   spark.sql("select * from t")
   ...

1. MaxCompute以DataSource接入Spark 2.x

如上介绍了DataSource的特点以及读写方式,MaxCompute作为一个数据源,通过E-MapReduce的aliyun-emapreduce-sdk也可以通过上述方式来访问。

1.1. aliyun-emapreduce-sdk

Git地址

branch: master-2.x

1.2 SparkSQL读写MaxCompute

a) option参数设置

访问MaxCompute表中的数据,需要一些参数,如下:

parameter optional value
odpsUrl No 内网地址: http://odps-ext.aliyun-inc.com/api 公网地址:http://service.odps.aliyun.com/api
tunnelUrl No 内网地址: http://dt-ext.odps.aliyun-inc.com 公网地址:http://dt.odps.aliyun.com
accessKeySecret No 阿里云accessKeySecret
accessKeyId No 阿里云accessKeyId
project No MaxCompute项目空间
table No MaxCompute表名
numPartitions Yes 表的Partition个数,默认 1
partitionSpec Yes 分区信息,如pt=xxx,多个用逗号分开pt=xxx,dt=xxx
allowCreatNewPartition Yes 分区不存在是否创建,默认 false
b) 写数据
  • MaxCompute中必须已经存在表()),若没有需要去MaxCompute控制台进行创建
  • DataFrame中的数据写入MaxCompute的表中
val df = Seq(("Hello", "E-MapReduce")).toDF("a","b")
df.write.format("org.apache.spark.aliyun.maxcompute.datasource")
  .option("odpsUrl", "http://odps-ext.aliyun-inc.com/api")
  .option("tunnelUrl", "http://dt-ext.odps.aliyun-inc.com")
  .option("table", "t")
  .option("project", "test_odpss")
  .option("accessKeyId", "your accessKeyId")
  .option("accessKeySecret", "your accessKeySecret")
  .mode("overwrite") //覆盖写
  .save()
  
case class MyClass(a: String, b: String)
val df1 = Seq(MyClass("Hello", "World")).toDF
df1.write.format("org.apache.spark.aliyun.maxcompute.datasource")
  .option("odpsUrl", "http://odps-ext.aliyun-inc.com/api")
  .option("tunnelUrl", "http://dt-ext.odps.aliyun-inc.com")
  .option("table", "t")
  .option("project", "test_odpss")
  .option("accessKeyId", "your accessKeyId")
  .option("accessKeySecret", "your accessKeySecret")
  .mode("append") //append追加
  .save()
  
  
// 写分区表 建表:create table t1(a string) partitioned by(b string)
val df2 = Seq("E-MapReduce").toDF("a") // 不包含分区列
df2.write.format("org.apache.spark.aliyun.maxcompute.datasource")
  .option("odpsUrl", "http://odps-ext.aliyun-inc.com/api")
  .option("tunnelUrl", "http://dt-ext.odps.aliyun-inc.com")
  .option("table", "t1")
  .option("project", "test_odpss")
  .option("partitionSpec","b='Hello'") // 分区描述
  .option("allowCreatNewPartition","true") //若分区不存在,是否创建
  .option("accessKeyId", "your accessKeyId")
  .option("accessKeySecret", "your accessKeySecret")
  .mode("append") //append追加
  .save()
  

备注:

DataFrame的列名和类型必须和MaxCompute的表中一致

不支持spark.write.parititonBy

不支持动态分区

  • MaxCompute控制台查询表数据进行验证
序号 a b
1 Hello E-MapReduce
2 Hello World
c) 读数据
  • 从上述表中读取数据到DataFrame
val df = spark
  .read
  .format("org.apache.spark.aliyun.maxcompute.datasource")
  .option("odpsUrl", "http://odps-ext.aliyun-inc.com/api")
  .option("tunnelUrl", "http://dt-ext.odps.aliyun-inc.com")
  .option("table", "t")
  .option("project", "test_odpss")
  .option("accessKeyId", "your accessKeyId")
  .option("accessKeySecret", "your accessKeySecret")
  .load()

df.show(false)

+-----+-----------+
|a    |b          |
+-----+-----------+
|Hello|E-MapReduce|
|Hello|World      |
+-----+-----------+

// 读出为DataFrame后可进行DataFrame的各种操作,如join
val df1 = Seq(("Hello", "AliYun")).toDF("a", "c")
df.join(df1, "a").show(false)

+-----+-----------+-------+
|a    |b          |c      |
+-----+-----------+-------+
|Hello|E-MapReduce|AliYun|
|Hello|World      |AliYun|
+-----+-----------+-------+

// 也可注册为Spark的临时表
df.createOrReplaceTempView("test_t")
spark.sql("select * from test_t").show(false)

df1.createOrReplaceTempView("test_t_1")
spark.sql("select * from test_t join test_t_1 on test_t.a = test_t_1.a ")


// 读分区表 建表:create table t2(a string) partitioned by(b string)
spark.read.format("org.apache.spark.aliyun.maxcompute.datasource")
  .option("odpsUrl", "http://odps-ext.aliyun-inc.com/api")
  .option("tunnelUrl", "http://dt-ext.odps.aliyun-inc.com")
  .option("table", "t2") // table t2
  .option("project", "test_odpss")
  .option("partitionSpec","b='Hello'") // 分区描述
  .option("accessKeyId", "your accessKeyId")
  .option("accessKeySecret", "your accessKeySecret")
  .save()
  
+-----------+
|a          |
+-----------+
|E-MapReduce|
+-----------+
d) sparkSQLText
  • 不支持在sparkSQLText直接对MaxCompute表进行相关操作
  • 可以通过上述读数据的方式使用DataFrame注册成临时表的方式,进行相关操作(insert不支持)
相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
9天前
|
存储 分布式计算 数据挖掘
数据架构 ODPS 是什么?
数据架构 ODPS 是什么?
80 7
|
10天前
|
存储 分布式计算 大数据
大数据 优化数据读取
【11月更文挑战第4天】
23 2
|
22天前
|
数据采集 监控 数据管理
数据治理之道:大数据平台的搭建与数据质量管理
【10月更文挑战第26天】随着信息技术的发展,数据成为企业核心资源。本文探讨大数据平台的搭建与数据质量管理,包括选择合适架构、数据处理与分析能力、数据质量标准与监控机制、数据清洗与校验及元数据管理,为企业数据治理提供参考。
66 1
|
6天前
|
存储 大数据 数据管理
大数据分区简化数据维护
大数据分区简化数据维护
14 4
|
17天前
|
存储 大数据 定位技术
大数据 数据索引技术
【10月更文挑战第26天】
38 3
|
17天前
|
存储 大数据 OLAP
大数据数据分区技术
【10月更文挑战第26天】
49 2
|
19天前
|
消息中间件 分布式计算 大数据
数据为王:大数据处理与分析技术在企业决策中的力量
【10月更文挑战第29天】在信息爆炸的时代,大数据处理与分析技术为企业提供了前所未有的洞察力和决策支持。本文探讨了大数据技术在企业决策中的重要性和实际应用,包括数据的力量、实时分析、数据驱动的决策以及数据安全与隐私保护。通过这些技术,企业能够从海量数据中提取有价值的信息,预测市场趋势,优化业务流程,从而在竞争中占据优势。
62 2
|
21天前
|
数据采集 分布式计算 大数据
数据治理之道:大数据平台的搭建与数据质量管理
【10月更文挑战第27天】在数字化时代,数据治理对于确保数据资产的保值增值至关重要。本文探讨了大数据平台的搭建和数据质量管理的重要性及实践方法。大数据平台应包括数据存储、处理、分析和展示等功能,常用工具如Hadoop、Apache Spark和Flink。数据质量管理则涉及数据的准确性、一致性和完整性,通过建立数据质量评估和监控体系,确保数据分析结果的可靠性。企业应设立数据治理委员会,投资相关工具和技术,提升数据治理的效率和效果。
55 2
|
23天前
|
存储 安全 大数据
大数据隐私保护:用户数据的安全之道
【10月更文挑战第31天】在大数据时代,数据的价值日益凸显,但用户隐私保护问题也愈发严峻。本文探讨了大数据隐私保护的重要性、面临的挑战及有效解决方案,旨在为企业和社会提供用户数据安全的指导。通过加强透明度、采用加密技术、实施数据最小化原则、加强访问控制、采用隐私保护技术和提升用户意识,共同推动大数据隐私保护的发展。
|
27天前
|
SQL 存储 大数据
大数据中数据提取
【10月更文挑战第19天】
52 2
下一篇
无影云桌面