大数据组件-Hive部署基于derby作为元数据存储

简介: 大数据组件-Hive部署基于derby作为元数据存储

在这里插入图片描述

👨🏻‍🎓博主介绍:大家好,我是芝士味的椒盐,一名在校大学生,热爱分享知识,很高兴在这里认识大家🌟
🌈擅长领域:Java、大数据、运维、电子
🙏🏻如果本文章各位小伙伴们有帮助的话,🍭关注+👍🏻点赞+🗣评论+📦收藏,相应的有空了我也会回访,互助!!!
🤝另本人水平有限,旨在创作简单易懂的文章,在文章描述时如有错,恳请各位大佬指正,在此感谢!!!

@[TOC]

  • 搭建hive的环境需要hadoop的dfsyarn可以正常运行的情况下。
  • 准备好apache-hive-1.2.1-bin.tar.gzmysql-libs.zip两个包

hive安装

  1. 解压apache-hive-1.2.1-bin.tar.gz 到/usr/local/src下,并且将其重命名为hive

    tar -zxvf apache-hive-1.2.1-bin.tar.gz
    mv apache-hive-1.2.1-bin hive
  2. 复制/hive/conf下的hive-env.sh.template模板并重命名为hive-env.sh

    cp hive-env.sh.template hive-env.sh
  3. 在重命名的hive-env.sh里配置参数

    export HADOOP_HOME=/usr/local/src/hadoop
    export HIVE_HOME=/usr/local/src/hive/conf
  4. 修改/usr/local/src/hive/bin下的hive脚本

    # add Spark assembly jar to the classpath
    if [[ -n "$SPARK_HOME" ]]
    then
    #如果装有spark需要指定Spark目录下的jars目录下的所有的jar包
      sparkAssemblyPath=`ls ${SPARK_HOME}/jars/*.jar`
      CLASSPATH="${CLASSPATH}:${sparkAssemblyPath}"
    fi
    
    • 否则启动hive将报如下错误

    提示ls: 无法访问/home/software/spark-2.0.1-bin-hadoop2.7/lib/spark-assembly-*.jar: 没有那个文件或目录...

  5. 启动hadoop的hdfs和yarn

    start-dfs.sh
    start-yarn.sh
  6. 在hdfs上创建tmp和/user/hive/warehouse两个目录,修改为同组可读

    #创建文件夹
    hadoop fs -mkdir /tmp
    hadoop fs -mkdir /user/hive/warehouse
    #赋予文件夹权限
    hadoop fs -chmod g+w /tmp
    hadoop fs -chmod g+w /user/hive/warehouse
  7. 将hive下的jline-2.12.jar 复制替换hadoop中的jline-2.12.jar

    cp /usr/local/src/hive/lib/jline-2.12.jar /usr/local/src/hadoop/share/hadoop/yarn/lib/
    rm jline-2.12.jar -rf
    
    • 否则启动hive会报如下错误

    Exception in thread "main" java.lang.IncompatibleClassChangeError: Found class jline.Termina

hive启动并测试

  1. 启动hive并测试查询

    #在配了环境变量bin的情况下才能使用
    hive
    • 查看数据库

      hive> show databases;
    • 选择默认数据库

      hive> use default;
    • 显示默认数据库中的表

      hive> show tables;

      • TIPS:hive在hdfs中的结构

        • 数据库:在hdfs中表现为${hive.metastore.warehouse.dir}目录下一个文件夹
        • 表:在hdfs中表现所属db目录下一个文件夹,文件夹中存放该表中的具体数据
        • 如果使用Metastore自带的derby数据库,在已经有一个对话的时候再打开一个对话将报错

          `Exception in thread "main" java.lang.RuntimeException: java.lang.RuntimeException:
          Unable to instantiate`

          • 原因:推荐MySQL存储Metastore元数据,替换默认的Derby数据库
相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
2月前
|
SQL 分布式计算 Java
bigdata-17-Hive部署与Hive基础
bigdata-17-Hive部署与Hive基础
48 0
|
4月前
|
存储 关系型数据库 MySQL
Mysql 存储大数据量问题
Mysql 存储大数据量问题
101 1
|
3天前
|
消息中间件 分布式计算 大数据
大数据组件之storm简介
大数据组件之storm简介
22 2
|
6天前
|
SQL 分布式计算 资源调度
常用大数据组件的Web端口号总结
这是关于常用大数据组件Web端口号的总结。通过虚拟机名+端口号可访问各组件服务:Hadoop HDFS的9870,YARN的ResourceManager的8088和JobHistoryServer的19888,Zeppelin的8000,HBase的10610,Hive的10002。ZooKeeper的端口包括客户端连接的2181,服务器间通信的2888以及选举通信的3888。
19 2
常用大数据组件的Web端口号总结
|
9天前
|
监控 大数据 数据处理
大数据组件之Storm简介
【5月更文挑战第2天】Apache Storm是用于实时大数据处理的分布式系统,提供容错和高可用的实时计算。核心概念包括Topology(由Spouts和Bolts构成的DAG)、Spouts(数据源)和Bolts(数据处理器)。Storm通过acker机制确保数据完整性。常见问题包括数据丢失、性能瓶颈和容错理解不足。避免这些问题的方法包括深入学习架构、监控日志、性能调优和编写健壮逻辑。示例展示了实现单词计数的简单Topology。进阶话题涵盖数据延迟、倾斜的处理,以及Trident状态管理和高级实践,强调调试、性能优化和数据安全性。
22 4
|
12天前
|
存储 分布式计算 大数据
MaxCompute产品使用合集之大数据计算MaxCompute中需要存储16进制的数据,我该怎么操作
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
12天前
|
机器学习/深度学习 分布式计算 大数据
MaxCompute产品使用合集之大数据计算MaxCompute如何限制用户只能访问特定的元数据信息,而不是整个工作空间
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
17天前
|
SQL 分布式计算 大数据
[AIGC 大数据基础]hive浅谈
[AIGC 大数据基础]hive浅谈
|
17天前
|
SQL 存储 分布式计算
基于Hadoop数据仓库Hive1.2部署及使用
基于Hadoop数据仓库Hive1.2部署及使用
|
1月前
|
SQL 分布式计算 Hadoop
利用Hive与Hadoop构建大数据仓库:从零到一
【4月更文挑战第7天】本文介绍了如何使用Apache Hive与Hadoop构建大数据仓库。Hadoop的HDFS和YARN提供分布式存储和资源管理,而Hive作为基于Hadoop的数据仓库系统,通过HiveQL简化大数据查询。构建过程包括设置Hadoop集群、安装配置Hive、数据导入与管理、查询分析以及ETL与调度。大数据仓库的应用场景包括海量数据存储、离线分析、数据服务化和数据湖构建,为企业决策和创新提供支持。
82 1

热门文章

最新文章