Spark SQL CLI配置

简介: Spark SQL CLI配置

Spark SQL CLI配置

SparkSQL可以兼容Hive以便SparkSQL支持Hive表访问、UDF(用户自定义函数)以及Hive查询语言(HiveQL/HQL)。
若要使用SparkSQLCLI的方式访问操作Hive表数据,需要对SparkSQL进行如下所示的环境配置(Spark集群已搭建好),将SparkSQL连接到一个部署好的Hive上

  1. 将hive-site.xml复制到/home/hadoop/app/spark/conf/目录下,所有节点都执行(路径根据自己的输入)
    cd /home/hadoop/app/hive/conf/
    cp hive-site.xml /home/hadoop/app/spark/conf/
    发送给其他两个节点
    scp hive-site.xml hadoop@slave1:/home/hadoop/app/spark/conf/
    scp hive-site.xml hadoop@slave2:/home/hadoop/app/spark/conf/
  2. 在/home/hadoop/app/spark/conf/spark-env.sh文件中配置MySQL驱动。
    将MySQL驱动复制到所有节点的spark安装包的jars目录下,并在/home/Hadoop/app/spark/conf/spark-env.sh末尾添加:
    export SPARK_CLASSPATH=/home/hadoop/app/spark/jars/mysl-connector-java-5.1.32.jar启动 MySQL 服务
    1
  3. 启动 Hive的metastore 服务:hive--service metastore &
    2
  4. 修改日志级别:进入/home/hadoop/app/spark/conf,cp log4j.properties.template log4j.properties,修改文件
    ==log4jproperties==中==log4jrootCategory==的值,修改后==log4jrootCategory=WARN,console==
    3
  5. 重新启动Spark集群:进入/home/hadoop/app/spark/sbin/目录,执行./stop-all.sh,再执行./start-all.sh
  6. 启动spark-sql:进入/home/hadoop/app/spark/bin目录,执行./spark-sql开启Spark SQL CLI
    4
相关文章
|
9天前
|
SQL 人工智能 Java
mybatis-plus配置sql拦截器实现完整sql打印
_shigen_ 博主分享了如何在MyBatis-Plus中打印完整SQL,包括更新和查询操作。默认日志打印的SQL用?代替参数,但通过自定义`SqlInterceptor`可以显示详细信息。代码示例展示了拦截器如何替换?以显示实际参数,并计算执行时间。配置中添加拦截器以启用此功能。文章提到了分页查询时的限制,以及对AI在编程辅助方面的思考。
43 5
mybatis-plus配置sql拦截器实现完整sql打印
|
14天前
|
SQL 分布式计算 大数据
MaxCompute产品使用合集之如何在本地IDE(如IntelliJ IDEA)中配置MaxCompute (mc) 的任务和调试SQL
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
14天前
|
SQL JSON 分布式计算
|
14天前
|
SQL 分布式计算 Java
|
1月前
|
SQL 分布式计算 关系型数据库
Spark编程实验三:Spark SQL编程
Spark编程实验三:Spark SQL编程
28 1
|
1月前
|
SQL 分布式计算 数据库
Spark SQL
Spark SQL
36 1
|
6天前
|
SQL IDE Java
Java连接SQL Server数据库的详细操作流程
Java连接SQL Server数据库的详细操作流程
|
14天前
|
SQL DataWorks NoSQL
DataWorks产品使用合集之如何将SQL Server中的数据转存到MongoDB
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
242 1
|
1月前
|
SQL API 流计算
实时计算 Flink版产品使用合集之在Mac M1下的Docker环境中开启SQL Server代理的操作步骤是什么
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
161 1
|
8天前
|
SQL 存储 关系型数据库
关系型数据库中的SQL Server
【6月更文挑战第11天】
44 3