【Spark Summit East 2017】用于数据分析的基于Kerberos的安全的Spark Notebook

简介: 本讲义出自Joy Chakraborty在Spark Summit East 2017上的演讲,主要介绍了为了使用Spark构建基于Kerberos的安全的JupyterHub笔记本所提出的技术设计和开发思想。

更多精彩内容参见云栖社区大数据频道https://yq.aliyun.com/big-data;此外,通过Maxcompute及其配套产品,低廉的大数据分析仅需几步,详情访问https://www.aliyun.com/product/odps


本讲义出自Joy Chakraborty在Spark Summit East 2017上的演讲,主要介绍了为了使用Spark构建基于Kerberos的安全的JupyterHub笔记本所提出的技术设计和开发思想。在演讲中Joy Chakraborty着重介绍了Sparkmagic和Livy的功能以及Kerberos的集成技术。


8d4194d4d6c29e8649501822f0605086c0fd09dc

72020d292c252784d22e6ff1532c570850777bb1

1255d7b9cf7ec018e4e481a128f99da405513a88

a2df732bc75cf025b35928bb20a39dc3ef1de41f

3b91e2ce970a88f504bf62889e47e1738339f717

a13b30dddf8a7252532768bbfdf12277345715d8

b6a1e3ae451c3a746526d735ab03b289240b8fed

8834021a7257470a7cad937ec8ded4ce2448607f

097f41668ca2ff18340f8bde2d9d36ec5a9fd5cb

5bd30683a9fce9a642891edb02230e0cd8f11ea1

c17ebfc48f43f36e0aa0acfd3a6e3540e5989237

297279f3abee42151bcb7c3fbcc7a30caa6345e1

634e42322b6a6b2bce82ce408a93bffd31b2ad8f

15110301dfba17632b409613b796064861604b27

6a12ba7976ec8381e9cb704402320176efea8302

8991a5b9004324b66582758fa5e74f0aa9e40c26

b3242ad38465454267218afb746295e5cc739b35

eba8c7daf4501858bf957dced818fc059b6d0771

2d05717978ca4dfe3c3adf8353ec1e3ef9d49cd7

1727a61fe4135ea4f14e8887bce11ef724841b12

5889d6fe70d43a1142cd79b7e61ec14328f015e5

0b7ef84899b37fbb665225b0f5aabf1a7c84f4ce

75c547771d8c79794afc628945bff274d44f4d9f

a6e8bea42956e226509e66d6c63e55f46d7d686b

25398f2ef536ec9ca717409b1beb5b5472a38769

656238696c0b8bb86674efa652ceb5f6f1693230

6cc15ce7d52639fb159bb611c80d3fb02a1fc0cd

a2b380b5c317d25c05644f7a919cb6306ea66195

35287743eda037075a9f822ee90112d73f42bd27

bd52460acb41c7b99f68a57bbe1c57bfa7594db0

d9fbc914326497b3fde4961f24e2fe7441f5c713

2c8bca3bfb3f4634a0e54605fec3f06e52ab761b

21d057ee59dc2f592ab26bf859c4026dc808dbc6

d6a14f9999269c9870de6cef8f6f248f298ad1b4

71e7428c5ddfdd3c4f39d84222c8214be098b87a

af028d779e4c1bade68794b27a143276541158ce

b4c0af7c16a64a6547bd4f570c31d839b2a74167

84e1223800ff8e99e7a6307cb512cd8b16b5bc37

56306852b9b8139d7b279f4471059d83bcb8bfc3

5eb07e534d3ac885aca1ab02f2ba9d7b76d7b62d

9ec632d58cf425a9b557db1dedaa9cccdf1ce663

5aeba999fba80f26d1cf44e47d1a388d4d931181

1e595bbbb96eb2882f913f3996bf85850e1db397

e4602ba70aaee575833b606f777aa9a6c1fb82b4

70c7c0119a7818b1d21407f01836ce79bf777a30

b11f688581de23e082b059a10a2bd31ed17d9a6a

e95629d6a93b4de9d5a067bb05205f43fd4a65f3

267da63cebd2526ff299f960a6188ae24fdbca13

08660e0f854daac7dc2635d454edf97da357a129

相关文章
|
1月前
|
分布式计算 关系型数据库 MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
50 3
|
3月前
|
存储 分布式计算 Java
|
3月前
|
分布式计算 监控 大数据
如何处理 Spark 中的倾斜数据?
【8月更文挑战第13天】
250 4
|
3月前
|
存储 缓存 分布式计算
|
3月前
|
SQL 存储 分布式计算
|
3月前
|
分布式计算 Apache 数据安全/隐私保护
流计算引擎数据问题之在 Spark Structured Streaming 中水印计算和使用如何解决
流计算引擎数据问题之在 Spark Structured Streaming 中水印计算和使用如何解决
51 1
|
4月前
|
分布式计算 数据处理 流计算
实时计算 Flink版产品使用问题之使用Spark ThriftServer查询同步到Hudi的数据时,如何实时查看数据变化
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
5月前
|
弹性计算 分布式计算 DataWorks
DataWorks产品使用合集之spark任务如何跨空间取表数据
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
42 1
|
5月前
|
SQL 分布式计算 HIVE
实时计算 Flink版产品使用问题之同步到Hudi的数据是否可以被Hive或Spark直接读取
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
5月前
|
分布式计算 定位技术 Scala
使用spark基于出租车GPS数据实现车辆数量统计以及北京每个城区的车辆位置点数分析
使用spark基于出租车GPS数据实现车辆数量统计以及北京每个城区的车辆位置点数分析
115 0
下一篇
无影云桌面