Hive是单机工具,只需要部署在一台服务器即可
hive虽然是单机的,但是它可以提交分布式运行的MapReduce程序运行
所以就只需要准备一台服务器提供Hive使用就好了
同时Hive需要使用元数据服务,即需要提供一个关系型数据库,也选择一台服务器安装关系型数据库即可
所以
配置Hadoop
Hive的运行依赖于Hadoop(HDFS,MapReduce,YARN都依赖)
同时涉及到HDFS文件系统的访问,所以需要配置Hadoop的代理用户
即设置hadoop用户允许代理(模拟)其他用户
配置如下内容在Hadoop的core-site.xml中,并分发到其他节点,且重启HDFS集群
下载解压hive
将hive解压到服务器的/export/server内
设置软连接
提供mysql driver
将下载好的jar包,放入到Hive安装文件夹的lib目录内
不需要新建,直接使用mv将改名
给该文件添加配置文件
配置Hive
在Hive的conf目录内,新建一个hive-site.xml文件,填入配置文件
初始化元数据
hive在启动之前需要先初始化hive所需的元数据库
在mysql新建一个数据库:hive
creste database hive charset utf8;
执行元数据库初始化命令
之前都是使用root用户去执行的,现在需要使用chown -R hadoop:hadoop 文件名
来把root权限改为hadoop
cd /export/server/hive
bin/schematool -initSchema -dbType mysql -verbos
初始化成功后,会在mysql中的hive数据库中新建74张元数据管理的表
启动hive(使用Hadoop用户)
创建一个hive的日志文件夹
mkdir /export/server/hive/logs
启动元数据管理服务(必须启动,否则无法工作)
前台启动:bin/hive --service metastore
后台启动:nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
启动客户端,二选一
Hive Shell方式(可以直接写sql):bin/hive
Hive ThrftServer方式(不可以直接写sql,需要外部客户端链接使用):bin/hive --Service hiveserver2