详解管理所有大数据组件的可视化利器:Hue

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 详解管理所有大数据组件的可视化利器:Hue

欢迎关注大数据和人工智能技术文章发布的微信公众号:清研学堂,在这里你可以学到夜白(作者笔名)精心整理的笔记,让我们每天进步一点点,让优秀成为一种习惯!


剖析管理所有大数据组件的可视化利器:Hue


日常的大数据使用都是在服务器命令行中进行的,可视化功能仅仅依靠各个组件自带的web界面来实现,不同组件对应不同的端口号,如:HDFS(50070),Yarn(8088),Hbase(16010)等等,而大数据的组件又有很多,为了解决某个问题,常常需要结合多个组件来使用,但是每个组件又有独立的web界面进行可视化,这时,如果有一个统一的web界面来管理并可以开发所有大数据的组件是非常方便的,而Hue正是这样的工具,它管理的大数据组件包括:HDFS、HBase、Hive、Pig、Sqoop、Spark、Scala等等几乎所有常用的组件。


(一)、HUE的介绍:


HUE是一个开源的Apache hadoop UI系统,管理hadoop生态体系结构的所有组件,基于python web框架Django实现,由Cloudera开发


HUE的tar包是源码包,采用源码安装 (源码安装的好处:卸载和移植软件方便)


源码安装三步骤:


1、配置:./configure –preifix=安装的目录 #检测系统配置,生成makefile文件 如果有makefile文件,直接进行编译和安装


2、编译:make


3、安装:make install


HUE的http服务端口:8888


一、安装和配置HUE:


安装HUE前,需要安装它所需要的rpm包及其依赖(27个),否则HUE运行会报错 rpm包:redhat软件包管理器 存放在redhat光盘Packages目录下


rpm包与tar.gz/.tgz、.bz2的区别:


rpm形式的软件包安装、升级、卸载方便,推荐初学者使用rpm形式的软件包


安装:rpm -ivh


卸载:rpm -e


tar.gz形式的软件包安装方便,卸载麻烦,用tar工具打包、gzip/bzip2压缩,安装时直接调用gzip/bzip2解压即可。如果解压后只有单一目录


用rm -rf命令删除,如果解压后分散在多个目录,必须手动一一删除


安装:tar -zxvf .tar.gz/ tar -yxvf .bz2


卸载:rm -rf/手动删除


二、安装rpm包:


方法:使用yum安装rpm包


yum:能够从指定的资源库(repository)自动下载、安装、升级rpm包及其依赖,必须要有可靠的资源库(repository)


1、挂载光盘 mount /dev/cdrom /mnt


mount命令:挂载硬盘/光盘/iso文件到指定目录下,访问其中的数据


2、建立yum资源库


cd /etc/yum.repos.d #yum资源库默认所在的目录
vim redhat7.repo
[redhat-yum] 资源库的标识
name=redhat7 资源库的名字
baseurl=file:///mnt 资源库的位置
enabled=1 启用资源库
gpgcheck=0 不检查资源库中的rpm包是否是官方的


3、执行下面的语句:


yum install gcc g++ libxml2-devel libxslt-devel cyrus-sasl-devel cyrus-sasl-gssapi mysql-devel python-devel python-setuptools sqlite-devel ant ibsasl2-dev libsasl2-modules-gssapi-mit libkrb5-dev libtidy-0.99-0 mvn openldap-dev libffi-devel gmp-devel openldap-devel


(二)、安装HUE:


解压:tar -zxvf hue-4.0.1.tgz


指定安装目录安装:PREFIX=/root/training make install


注:如果不指定prefix,可执行文件默认安装到/usr/local/bin中,配置文件默认安装到/usr/local/etc中,库文件默认安装到/usr/local/lib中,其他文件默认安装到/usr/local/share中


注:HUE的tar包是源码包,采用源码安装


一、配置HUE:


剖析管理所有大数据组件的可视化利器:Hue


1、与hadoop集成:

   1、开启hdfs的web功能

   2、允许HUE操作hdfs


dfs.webhdfs.enabled
true
hadoop.proxyuser.root.hosts
*
hadoop.proxyuser.root.groups
*


3、添加一个新用户并授权:hue要对/root/training/hue有访问权限


adduser hue
chown -R hue.hue /root/training/hue


4、修改配置文件hue.ini($HUE_HOME/desktop/conf):


http_hosts 192.168.182.11
http_port 192.168.182.11
server_user root
server_group root
default_user root
default_hdfs_superuser root
fs_defaulfs hdfs://192.168.182.11:9000
webhdfs_url http://192.168.182.11:50070/webhdfs/v1
hadoop_conf_dir /root/training/hadoop-2.7.3/etc/hadoop
resourcemanager_host 192.168.182.11
resourcemanager_api_url http://192.168.182.11:8088
proxy_api_url http://192.168.182.11:8088
history_server_api_url http://192.168.182.11:19888


二、与HBase集成:


1、修改配置文件hue.ini:


hbase_clusters=(Cluster|192.168.182.11:9090)
hbase_conf_dir=/root/training/hbase-1.3.1/conf


剖析管理所有大数据组件的可视化利器:Hue


三、与Hive集成:


hive_server_host=192.168.182.11


hive_server_port=10000


hive_conf_dir=/root/training/apache-hive-2.3.0-bin/conf


(三)、启动HUE:


1、启动hadoop:start-all.sh hue就可以访问hadoop


2、启动hbase:start-hbase.sh


3、启动hbase的thrift server:hbase-daemon.sh start thrift hue就可以访问hbase


4、启动hive的元信息存储:hive –service metastore(表示前台运行) hue就可以访问hive的元信息


5、启动hive的thrift server:hiveserver2 &(表示后台运行) hue就可以访问hive


6、启动hue:bin/supervisor($HUE_HOME/build/env)


作者:李金泽,清华大学在读硕士,研究方向:大数据和人工智能


相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
5天前
|
存储 分布式计算 资源调度
两万字长文向你解密大数据组件 Hadoop
两万字长文向你解密大数据组件 Hadoop
26 11
|
4月前
|
分布式计算 数据可视化 大数据
于SpringBoot+大数据城市景观画像可视化设计和实现
于SpringBoot+大数据城市景观画像可视化设计和实现
|
2月前
|
数据可视化 大数据
【Echarts大屏】大数据平台可视化大屏
【Echarts大屏】大数据平台可视化大屏
【Echarts大屏】大数据平台可视化大屏
|
2月前
|
数据采集 数据可视化 大数据
【优秀python大屏案例】基于python flask的前程无忧大数据岗位分析可视化大屏设计与实现
本文介绍了一个基于Python Flask框架的前程无忧大数据岗位分析可视化大屏系统,该系统通过爬虫技术采集招聘数据,利用机器学习算法进行分析,并以可视化大屏展示,旨在提高招聘市场数据分析的效率和准确性,为企业提供招聘决策支持和求职者职业规划参考。
|
2月前
|
前端开发 大数据 数据库
🔥大数据洪流下的决战:JSF 表格组件如何做到毫秒级响应?揭秘背后的性能魔法!💪
【8月更文挑战第31天】在 Web 应用中,表格组件常用于展示和操作数据,但在大数据量下性能会成瓶颈。本文介绍在 JavaServer Faces(JSF)中优化表格组件的方法,包括数据处理、分页及懒加载等技术。通过后端分页或懒加载按需加载数据,减少不必要的数据加载和优化数据库查询,并利用缓存机制减少数据库访问次数,从而提高表格组件的响应速度和整体性能。掌握这些最佳实践对开发高性能 JSF 应用至关重要。
45 0
|
2月前
|
SQL 分布式计算 数据可视化
基于Hadoop的大数据可视化方法
【8月更文第28天】在大数据时代,有效地处理和分析海量数据对于企业来说至关重要。Hadoop作为一个强大的分布式数据处理框架,能够处理PB级别的数据量。然而,仅仅完成数据处理还不够,还需要将这些数据转化为易于理解的信息,这就是数据可视化的重要性所在。本文将详细介绍如何使用Hadoop处理后的数据进行有效的可视化分析,并会涉及一些流行的可视化工具如Tableau、Qlik等。
65 0
|
2月前
|
监控 数据可视化 前端开发
【前端】政务服务大数据可视化监控平台(源码+html+css+js)
【前端】政务服务大数据可视化监控平台(源码+html+css+js)
|
4月前
|
存储 分布式计算 大数据
Hadoop 生态圈中的组件如何协同工作来实现大数据处理的全流程
Hadoop 生态圈中的组件如何协同工作来实现大数据处理的全流程
|
3月前
|
机器学习/深度学习 分布式计算 DataWorks
MaxCompute产品使用合集之使用临时查询创建的表,在表管理和公共表没有找到,是什么原因
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
3月前
|
分布式计算 DataWorks NoSQL
MaxCompute产品使用合集之如何操作和管理节点
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。

热门文章

最新文章

下一篇
无影云桌面