Hue与HDFS、YARN、Hive、MySQL、HBase的集成

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: 笔记

一、Hue与HDFS的集成

第一步

进入到/opt/Hadoop/hue/desktop/conf目录下,修改hue.ini文件15.png修改如下:

fs_defaultfs=hdfs://node1:8020
webhdfs_url=http://node1:50070/webhdfs/v1
hadoop_conf_dir=/opt/Hadoop/hadoop/etc/hadoop
hadoop_bin=/opt/Hadoop/hadoop/bin
hadoop_hdfs_home=/opt/Hadoop/hadoop

第二步

通过查看官方文档:

https://archive.cloudera.com/cdh5/cdh/5/hue-3.9.0-cdh5.9.3/manual.html

对hadoop中的core-site.html文件进行修改配置

16.pngimage.png

并且修改完成之后把node1的core-site.html文件分发给node2和node3上

第三步

通过查看Hue的web界面可以看出hue与hdfs的集成成功

18.png

二、Hue与YARN的集成


进入到/opt/Hadoop/hue/desktop/conf目录下,修改hue.ini文件

image.png

resourcemanager_host=node1
resourcemanager_port=8032
submit_to=True
resourcemanager_api_url=http://node1:8088
proxy_api_url=http://node1:8088
history_server_api_url=http://node1:19888

三、Hue与Hive的集成


进入到/opt/Hadoop/hue/desktop/conf目录下,修改hue.ini文件

20.png

hive_server_host=node1
hive_server_port=10000
hive_conf_dir=/opt/Hadoop/hive/conf

修改配置完成之后,启动检测

分别启动:

./bin/hiveserver2
./build/env/bin/supervisor

访问web界面可以看到hive的可视化界面

21.png


四、Hue与MySQL的集成


进入到/opt/Hadoop/hue/desktop/conf目录下,修改hue.ini文件

image.png

访问web界面可以看到mysql的可视化界面

23.png


五、Hue与HBase的集成


进入到/opt/Hadoop/hue/desktop/conf目录下,修改hue.ini文件

24.png

hbase_clusters=(Cluster|node1:9090)
hbase_conf_dir=/opt/Hadoop/hbase/conf

访问web界面可以看到hbase的可视化界面

25.png

相关实践学习
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
22天前
|
SQL 关系型数据库 MySQL
Sqoop【付诸实践 01】Sqoop1最新版 MySQL与HDFS\Hive\HBase 核心导入导出案例分享+多个WRAN及Exception问题处理(一篇即可学会在日常工作中使用Sqoop)
【2月更文挑战第9天】Sqoop【付诸实践 01】Sqoop1最新版 MySQL与HDFS\Hive\HBase 核心导入导出案例分享+多个WRAN及Exception问题处理(一篇即可学会在日常工作中使用Sqoop)
111 7
|
11天前
|
SQL 存储 关系型数据库
Hive 和 HDFS、MySQL 之间的关系
Hive是Hadoop上的数据仓库工具,用HiveQL进行大数据查询;HDFS是分布式文件系统,用于存储大规模数据,常与Hive结合,提供数据存储和高可靠性。MySQL是RDBMS,适用于结构化数据管理,在大数据环境里可存储Hive的元数据,提升查询效率和元数据管理。三者协同处理数据管理和分析任务。
|
22天前
|
分布式计算 DataWorks MaxCompute
DataWorks产品使用合集之在DataWorks中,将数据集成功能将AnalyticDB for MySQL中的数据实时同步到MaxCompute中如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
39 0
|
22天前
|
DataWorks 安全 关系型数据库
DataWorks产品使用合集之在 DataWorks 中使用数据集成从 MySQL 导入数据到 GDB 执行同步任务脚本的步骤如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
34 0
|
22天前
|
SQL 关系型数据库 MySQL
Hive【基础知识 02-1】【Hive CLI 命令行工具使用】【准备阶段-建库、建表、导入数据、编写测试SQL脚本并上传HDFS】
【4月更文挑战第7天】Hive【基础知识 02-1】【Hive CLI 命令行工具使用】【准备阶段-建库、建表、导入数据、编写测试SQL脚本并上传HDFS】
32 0
|
22天前
|
分布式计算 Hadoop 测试技术
Hadoop【基础知识 05】【HDFS的JavaAPI】(集成及测试)
【4月更文挑战第5天】Hadoop【基础知识 05】【HDFS的JavaAPI】(集成及测试)
64 8
|
22天前
|
SQL 分布式计算 安全
HIVE启动错误:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeExcept
HIVE启动错误:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeExcept
172 0
|
22天前
|
DataWorks 关系型数据库 MySQL
DataWorks的数据集成实时同步mysql数据吗?
DataWorks的数据集成实时同步mysql数据吗?
123 0
|
22天前
|
DataWorks 关系型数据库 MySQL
DataWorks实时集成 mysql 默认的server_id范围是多少?
DataWorks实时集成 mysql 默认的server_id范围是多少?
103 0
|
22天前
|
SQL 分布式计算 Hadoop
[AIGC ~大数据] 深入理解Hadoop、HDFS、Hive和Spark:Java大师的大数据研究之旅
[AIGC ~大数据] 深入理解Hadoop、HDFS、Hive和Spark:Java大师的大数据研究之旅