二、第二种安装方式
推荐使用此种安装方式。
1)首先保证你的linux中安装好了mysql
2)上传安装包
3)解压
apps是我在家目录下的hadoop用户下(/home/hadoop),已经创建好的一个文件夹。我们将上传好的hive压缩包解压到apps目录下。
tar -zxvf apache-hive-2.3.6-bin.tar.gz -C apps/
4)配置环境变量
使用如下命令打开配置文件:普通用户修改配置文件,要使用sudo权限;
sudo vim /etc/profile
在配置文件中加入如下内容;
export HIVE_HOME=/home/hadoop/apps/apache-hive-2.3.6-bin export PATH=$JAVA_HOME/IVEbin:$PATH:$CATALINA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin
重新加载配置文件,使之生效;
source /etc/profile
效果如下
5)修改配置文件
配置文件,在hive解压目录下的conf目录下,下面是我linux中的conf目录的全路径
/home/hadoop/apps/apache-hive-2.3.6-bin/conf
需要修改的配置文件是hive-site.xml
这里做一个说明:在conf目录下,其实是没有这个hive-site.xml文件的,因此需要我们自己手动创建一个hive-site.xml目录。
创建hive-site.xml文件
vim hive-site.xml
在hive-site.xml文件中,添加如下配置项
<configuration> <property> <!--元数据库的连接地址:这里使用的是mysql数据库--> <!--这里指定了mysql安装的节点,为什么写localhost,看下面--> <!--这里还指定了元数据库名,为myhive--> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://localhost:3306/myhive?createDatabaseIfNotExist=true</value> <description>JDBC connect string for a JDBC metastore</description> <!--如果mysql和hive在同一个服务器节点,那么请更改bigdata112为localhost--> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> <description>Driver class name for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> <description>username to use against metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>123456</value> <description>password to use against metastore database</description> </property> </configuration>
6)将mysq1的驱动,添加到hive安装目录的1ib目录下
7)元数据库的初始化
命令如下:
schematool -dbType mysql -initSchema
效果如下:
8)启动命令:hive
9)测试:可以使用如下测试命令