大数据组件-Hive部署基于MySQL作为元数据存储

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,高可用系列 2核4GB
简介: 大数据组件-Hive部署基于MySQL作为元数据存储

在这里插入图片描述

👨🏻‍🎓博主介绍:大家好,我是芝士味的椒盐,一名在校大学生,热爱分享知识,很高兴在这里认识大家🌟
🌈擅长领域:Java、大数据、运维、电子
🙏🏻如果本文章各位小伙伴们有帮助的话,🍭关注+👍🏻点赞+🗣评论+📦收藏,相应的有空了我也会回访,互助!!!
🤝另本人水平有限,旨在创作简单易懂的文章,在文章描述时如有错,恳请各位大佬指正,在此感谢!!!

@[TOC]

MySQL安装

  • 准备如下安装包

    1. MySQL-client-5.6.24-1.el6.x86_64.rpm
    2. mysql-connector-java-5.1.27.tar.gz
    3. MySQL-server-5.6.24-1.el6.x86_64.rpm

操作步骤:

  1. 使用rpm指令查询是否安装有mariadbpostfix,有就卸载

    rpm -qa |grep mariadb
    rpm -qa |grep postfix
    #卸载发现的,否则mysql将安装不上
    sudo rpm -e --nodeps mariadb-libs-5.5.64-1.el7.x86_64
  2. 安装MySQL-server-5.6.24-1.el6.x86_64.rpm

    rpm -ivh MySQL-server-5.6.24-1.el6.x86_64.rpm
    rpm -ivh MySQL-client-5.6.24-1.el6.x86_64.rpm
  3. 启动mysql服务

    seriver mysql start
  4. /root/.mysql_secret 中查看随机密码,并记录随机密码

    sudo cat /root/.mysql_secret
  5. 登录mysql

    mysql -uroot -p[随机密码]
  6. 设置新的密码以及远程登录,并且刷新

    mysql>set password=password('root');
    #配置任何主机可以远程登录
    mysql>use mysql
    mysql>update user set host='%' where user='root;
    #刷新sql配置
    mysql>flush privileges;

安装Hive配置元数据到MySQL

  1. mysql-connector-java-5.1.27.tar.gz 进行解压

    tar -zxvf mysql-connector-java-5.1.27.tar.gz
  2. 将解压出来中的mysql-connector-java-5.1.27-bin.jar复制到/usr/local/src/hive/lib下

    cp mysql-connector-java-5.1.27-bin.jar /usr/local/src/hive/lib/
  3. 配置Metastore到MySQL

    1. 在/hive/conf下创建一个hive-site.xml

      touch hive-site.xml
    2. 并配置hive-site.xml中的参数

      image.png

      • 若启动hive异常需要重新启动机器
    3. 多窗口启动hive测试

      1. 先启动mysql,并查看有几个数据库

        ------mysql -uroot -proot
        mysql>show databases;
      2. 再次打开多个窗口,分别启动hive

        hive
      3. 启动hive之后,返回mysql窗口查看数据库数量,会显示增加了metastore数据库

HiveJDBC访问

  1. 因为hadoop不允许直接用户操纵hadoo层,会有一个伪装机制,而是使用将控制权交由超级代理,需要在hadoop的core-site.xml中配置

    image.png

  2. 先开启 Metastore,再开启hiveserver2

    nohup hive --service metastore  >>  log.out 2>&1 &
    
    nohup hive --service hiveserver2  >> log.out 2>&1 &
  3. 连接hiveserver2

    beeline> !connect jdbc:hive2://本机的hive的ip或域名:10000(回车)
    Connecting to jdbc:hive2://本机的hive的ip或域名:10000
    Enter username for jdbc:hive2://本机的hive的ip或域名:10000: hadoop(回车)
    Enter password for jdbc:hive2://本机的hive的ip或域名:10000: (直接回车)
    Connected to: Apache Hive (version 1.2.1)
    Driver: Hive JDBC (version 1.2.1)
    Transaction isolation: TRANSACTION_REPEATABLE_READ
    0: jdbc:hive2://本机的hive的ip或域名:10000> show databases;
    +----------------+--+
    | database_name  |
    +----------------+--+
    | default        |
    | hive_db2       |
    +----------------+--+
相关文章
|
3月前
|
SQL DataWorks 关系型数据库
DataWorks操作报错合集之如何处理数据同步时(mysql->hive)报:Render instance failed
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
1月前
|
分布式计算 关系型数据库 MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
49 3
|
1月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
65 2
|
1月前
|
消息中间件 分布式计算 关系型数据库
大数据-140 - ClickHouse 集群 表引擎详解5 - MergeTree CollapsingMergeTree 与其他数据源 HDFS MySQL
大数据-140 - ClickHouse 集群 表引擎详解5 - MergeTree CollapsingMergeTree 与其他数据源 HDFS MySQL
45 0
|
1月前
|
消息中间件 关系型数据库 MySQL
大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka
大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka
136 0
|
1月前
|
SQL 分布式计算 大数据
大数据-168 Elasticsearch 单机云服务器部署运行 详细流程
大数据-168 Elasticsearch 单机云服务器部署运行 详细流程
54 2
|
1月前
|
SQL 分布式计算 关系型数据库
Hadoop-21 Sqoop 数据迁移工具 简介与环境配置 云服务器 ETL工具 MySQL与Hive数据互相迁移 导入导出
Hadoop-21 Sqoop 数据迁移工具 简介与环境配置 云服务器 ETL工具 MySQL与Hive数据互相迁移 导入导出
52 3
|
1月前
|
资源调度 分布式计算 大数据
大数据-111 Flink 安装部署 YARN部署模式 FlinkYARN模式申请资源、提交任务
大数据-111 Flink 安装部署 YARN部署模式 FlinkYARN模式申请资源、提交任务
92 0
|
1月前
|
SQL 分布式计算 Java
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
35 0
|
1月前
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
86 0