大数据组件-Hive部署基于MySQL作为元数据存储

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云数据库 RDS MySQL,高可用系列 2核4GB
简介: 大数据组件-Hive部署基于MySQL作为元数据存储

在这里插入图片描述

👨🏻‍🎓博主介绍:大家好,我是芝士味的椒盐,一名在校大学生,热爱分享知识,很高兴在这里认识大家🌟
🌈擅长领域:Java、大数据、运维、电子
🙏🏻如果本文章各位小伙伴们有帮助的话,🍭关注+👍🏻点赞+🗣评论+📦收藏,相应的有空了我也会回访,互助!!!
🤝另本人水平有限,旨在创作简单易懂的文章,在文章描述时如有错,恳请各位大佬指正,在此感谢!!!

@[TOC]

MySQL安装

  • 准备如下安装包

    1. MySQL-client-5.6.24-1.el6.x86_64.rpm
    2. mysql-connector-java-5.1.27.tar.gz
    3. MySQL-server-5.6.24-1.el6.x86_64.rpm

操作步骤:

  1. 使用rpm指令查询是否安装有mariadbpostfix,有就卸载

    rpm -qa |grep mariadb
    rpm -qa |grep postfix
    #卸载发现的,否则mysql将安装不上
    sudo rpm -e --nodeps mariadb-libs-5.5.64-1.el7.x86_64
    AI 代码解读
  2. 安装MySQL-server-5.6.24-1.el6.x86_64.rpm

    rpm -ivh MySQL-server-5.6.24-1.el6.x86_64.rpm
    rpm -ivh MySQL-client-5.6.24-1.el6.x86_64.rpm
    AI 代码解读
  3. 启动mysql服务

    seriver mysql start
    AI 代码解读
  4. /root/.mysql_secret 中查看随机密码,并记录随机密码

    sudo cat /root/.mysql_secret
    AI 代码解读
  5. 登录mysql

    mysql -uroot -p[随机密码]
    AI 代码解读
  6. 设置新的密码以及远程登录,并且刷新

    mysql>set password=password('root');
    #配置任何主机可以远程登录
    mysql>use mysql
    mysql>update user set host='%' where user='root;
    #刷新sql配置
    mysql>flush privileges;
    AI 代码解读

安装Hive配置元数据到MySQL

  1. mysql-connector-java-5.1.27.tar.gz 进行解压

    tar -zxvf mysql-connector-java-5.1.27.tar.gz
    AI 代码解读
  2. 将解压出来中的mysql-connector-java-5.1.27-bin.jar复制到/usr/local/src/hive/lib下

    cp mysql-connector-java-5.1.27-bin.jar /usr/local/src/hive/lib/
    AI 代码解读
  3. 配置Metastore到MySQL

    1. 在/hive/conf下创建一个hive-site.xml

      touch hive-site.xml
      AI 代码解读
    2. 并配置hive-site.xml中的参数

      image.png

      • 若启动hive异常需要重新启动机器
    3. 多窗口启动hive测试

      1. 先启动mysql,并查看有几个数据库

        ------mysql -uroot -proot
        mysql>show databases;
        AI 代码解读
      2. 再次打开多个窗口,分别启动hive

        hive
        AI 代码解读
      3. 启动hive之后,返回mysql窗口查看数据库数量,会显示增加了metastore数据库

HiveJDBC访问

  1. 因为hadoop不允许直接用户操纵hadoo层,会有一个伪装机制,而是使用将控制权交由超级代理,需要在hadoop的core-site.xml中配置

    image.png

  2. 先开启 Metastore,再开启hiveserver2

    nohup hive --service metastore  >>  log.out 2>&1 &
    
    nohup hive --service hiveserver2  >> log.out 2>&1 &
    AI 代码解读
  3. 连接hiveserver2

    beeline> !connect jdbc:hive2://本机的hive的ip或域名:10000(回车)
    Connecting to jdbc:hive2://本机的hive的ip或域名:10000
    Enter username for jdbc:hive2://本机的hive的ip或域名:10000: hadoop(回车)
    Enter password for jdbc:hive2://本机的hive的ip或域名:10000: (直接回车)
    Connected to: Apache Hive (version 1.2.1)
    Driver: Hive JDBC (version 1.2.1)
    Transaction isolation: TRANSACTION_REPEATABLE_READ
    0: jdbc:hive2://本机的hive的ip或域名:10000> show databases;
    +----------------+--+
    | database_name  |
    +----------------+--+
    | default        |
    | hive_db2       |
    +----------------+--+
    AI 代码解读
目录
打赏
0
0
0
0
176
分享
相关文章
【免费动手教程上线】阿里云RDS MySQL推出大容量高性能存储:高性能本地盘(最高16TB存储空间)、高性能云盘(最高64TB存储空间)
阿里云RDS MySQL提供高性能本地盘与高性能云盘等存储方案,满足用户大容量、低延迟需求。高性能本地盘单盘最大16TB,IO延时微秒级;高性能云盘兼容ESSD特性,支持IO性能突发、BPE及16K原子写等能力。此外,阿里云还提供免费动手体验教程,帮助用户直观感受云数据库 RDS 存储性能表现。
在Linux系统中安装JDK、Tomcat、MySQL以及部署J2EE后端接口
校验时,浏览器输入:http://[your_server_IP]:8080/myapp。如果你看到你的应用的欢迎页面,恭喜你,一切都已就绪。
279 17
在Linux操作系统上设置JDK、Tomcat、MySQL以及J2EE后端接口的部署步骤
让我们总结一下,给你的Linux操作系统装备上最强的军队,需要先后装备好JDK的弓箭,布置好Tomcat的阵地,再把MySQL的物资原料准备好,最后部署好J2EE攻城车,那就准备好进军吧,你的Linux军团,无人可挡!
84 18
Linux操作系统中JDK、Tomcat、MySQL的完整安装流程以及J2EE后端接口的部署
然后Tomcat会自动将其解压成一个名为ROOT的文件夹。重启Tomcat,让新“植物”适应新环境。访问http://localhost:8080/yourproject看到你的项目页面,说明“植物”种植成功。
102 10
在Linux平台上进行JDK、Tomcat、MySQL的安装并部署后端项目
现在,你可以通过访问http://Your_IP:Tomcat_Port/Your_Project访问你的项目了。如果一切顺利,你将看到那绚烂的胜利之光照耀在你的项目之上!
206 41
MySQL进阶突击系列(09)数据磁盘存储模型 | 一行数据怎么存?
文中详细介绍了MySQL数据库中一行数据在磁盘上的存储机制,包括表空间、段、区、页和行的具体结构,以及如何设计和优化行数据存储以提高性能。
MySQL原理简介—5.存储模型和数据读写机制
本文介绍了MySQL中InnoDB存储引擎的物理存储结构和读写机制。主要内容包括: 1. 为什么不能直接更新磁盘上的数据 2. 数据页的概念 3. 一行数据的存储 4. 数据头的内容 5. 行溢出和溢出页 6. 数据页的物理结构 7. 表空间的物理结构 8. InnoDB存储模型及读写机制总结 这些机制共同确保了InnoDB在高并发场景下的高效运行和数据一致性。
大数据新视界 --大数据大厂之Hive与大数据融合:构建强大数据仓库实战指南
本文深入介绍 Hive 与大数据融合构建强大数据仓库的实战指南。涵盖 Hive 简介、优势、安装配置、数据处理、性能优化及安全管理等内容,并通过互联网广告和物流行业案例分析,展示其实际应用。具有专业性、可操作性和参考价值。
大数据新视界 --大数据大厂之Hive与大数据融合:构建强大数据仓库实战指南
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
202 0

热门文章

最新文章

推荐镜像

更多
AI助理
登录插画

登录以查看您的控制台资源

管理云资源
状态一览
快捷访问

你好,我是AI助理

可以解答问题、推荐解决方案等