Caused by: org.xml.sax.SAXParseException; systemId: file:/home/hadoop/hive-0.12.0/conf/hive-site.xml; lineNumber: 5; columnNumber: 2; The markup in th

本文涉及的产品
云数据库 RDS MySQL Serverless,0.5-2RCU 50GB
简介: 1:Hive安装的过程(Hive启动的时候报的错误),贴一下错误,和为什么错,以及解决方法: 1 [root@master bin]# ./hive 2 17/12/11 23:22:56 INFO Configuration.

1:Hive安装的过程(Hive启动的时候报的错误),贴一下错误,和为什么错,以及解决方法:

 1 [root@master bin]# ./hive
 2 17/12/11 23:22:56 INFO Configuration.deprecation: mapred.input.dir.recursive is deprecated. Instead, use mapreduce.input.fileinputformat.input.dir.recursive
 3 17/12/11 23:22:56 INFO Configuration.deprecation: mapred.max.split.size is deprecated. Instead, use mapreduce.input.fileinputformat.split.maxsize
 4 17/12/11 23:22:56 INFO Configuration.deprecation: mapred.min.split.size is deprecated. Instead, use mapreduce.input.fileinputformat.split.minsize
 5 17/12/11 23:22:56 INFO Configuration.deprecation: mapred.min.split.size.per.rack is deprecated. Instead, use mapreduce.input.fileinputformat.split.minsize.per.rack
 6 17/12/11 23:22:56 INFO Configuration.deprecation: mapred.min.split.size.per.node is deprecated. Instead, use mapreduce.input.fileinputformat.split.minsize.per.node
 7 17/12/11 23:22:56 INFO Configuration.deprecation: mapred.reduce.tasks is deprecated. Instead, use mapreduce.job.reduces
 8 17/12/11 23:22:56 INFO Configuration.deprecation: mapred.reduce.tasks.speculative.execution is deprecated. Instead, use mapreduce.reduce.speculative
 9 [Fatal Error] hive-site.xml:5:2: The markup in the document following the root element must be well-formed.
10 17/12/11 23:22:57 FATAL conf.Configuration: error parsing conf file:/home/hadoop/hive-0.12.0/conf/hive-site.xml
11 org.xml.sax.SAXParseException; systemId: file:/home/hadoop/hive-0.12.0/conf/hive-site.xml; lineNumber: 5; columnNumber: 2; The markup in the document following the root element must be well-formed.
12     at com.sun.org.apache.xerces.internal.parsers.DOMParser.parse(DOMParser.java:257)
13     at com.sun.org.apache.xerces.internal.jaxp.DocumentBuilderImpl.parse(DocumentBuilderImpl.java:347)
14     at javax.xml.parsers.DocumentBuilder.parse(DocumentBuilder.java:150)
15     at org.apache.hadoop.conf.Configuration.parse(Configuration.java:2173)
16     at org.apache.hadoop.conf.Configuration.parse(Configuration.java:2161)
17     at org.apache.hadoop.conf.Configuration.loadResource(Configuration.java:2229)
18     at org.apache.hadoop.conf.Configuration.loadResources(Configuration.java:2195)
19     at org.apache.hadoop.conf.Configuration.getProps(Configuration.java:2102)
20     at org.apache.hadoop.conf.Configuration.get(Configuration.java:1068)
21     at org.apache.hadoop.hive.conf.HiveConf.initialize(HiveConf.java:1141)
22     at org.apache.hadoop.hive.conf.HiveConf.<init>(HiveConf.java:1087)
23     at org.apache.hadoop.hive.common.LogUtils.initHiveLog4jCommon(LogUtils.java:74)
24     at org.apache.hadoop.hive.common.LogUtils.initHiveLog4j(LogUtils.java:58)
25     at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:630)
26     at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:614)
27     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
28     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
29     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
30     at java.lang.reflect.Method.invoke(Method.java:606)
31     at org.apache.hadoop.util.RunJar.main(RunJar.java:212)
32 Exception in thread "main" java.lang.RuntimeException: org.xml.sax.SAXParseException; systemId: file:/home/hadoop/hive-0.12.0/conf/hive-site.xml; lineNumber: 5; columnNumber: 2; The markup in the document following the root element must be well-formed.
33     at org.apache.hadoop.conf.Configuration.loadResource(Configuration.java:2338)
34     at org.apache.hadoop.conf.Configuration.loadResources(Configuration.java:2195)
35     at org.apache.hadoop.conf.Configuration.getProps(Configuration.java:2102)
36     at org.apache.hadoop.conf.Configuration.get(Configuration.java:1068)
37     at org.apache.hadoop.hive.conf.HiveConf.initialize(HiveConf.java:1141)
38     at org.apache.hadoop.hive.conf.HiveConf.<init>(HiveConf.java:1087)
39     at org.apache.hadoop.hive.common.LogUtils.initHiveLog4jCommon(LogUtils.java:74)
40     at org.apache.hadoop.hive.common.LogUtils.initHiveLog4j(LogUtils.java:58)
41     at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:630)
42     at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:614)
43     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
44     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
45     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
46     at java.lang.reflect.Method.invoke(Method.java:606)
47     at org.apache.hadoop.util.RunJar.main(RunJar.java:212)
48 Caused by: org.xml.sax.SAXParseException; systemId: file:/home/hadoop/hive-0.12.0/conf/hive-site.xml; lineNumber: 5; columnNumber: 2; The markup in the document following the root element must be well-formed.
49     at com.sun.org.apache.xerces.internal.parsers.DOMParser.parse(DOMParser.java:257)
50     at com.sun.org.apache.xerces.internal.jaxp.DocumentBuilderImpl.parse(DocumentBuilderImpl.java:347)
51     at javax.xml.parsers.DocumentBuilder.parse(DocumentBuilder.java:150)
52     at org.apache.hadoop.conf.Configuration.parse(Configuration.java:2173)
53     at org.apache.hadoop.conf.Configuration.parse(Configuration.java:2161)
54     at org.apache.hadoop.conf.Configuration.loadResource(Configuration.java:2229)
55     ... 14 more

2:我的错误主要是配置Hive-site.xml的时候少写了开头和结尾的<configuration></configuration>,导致的错误,下面贴一下这个配置文件易错的地方:

 1 <!--开头和结尾,一定不要忘记-->
 2 <configuration>
 3 <property>
 4 <name>javax.jdo.option.ConnectionURL</name>
 5 <!--自己的主机名称或者localhost-->
 6 <value>jdbc:mysql://主机名称:3306/hive?createDatabaseIfNotExist=true</value>
 7 </property>
 8 <property>
 9 <name>javax.jdo.option.ConnectionDriverName</name>
10 <value>com.mysql.jdbc.Driver</value>
11 </property>
12 <property>
13 <name>javax.jdo.option.ConnectionUserName</name>
14 <!--mysql的账号-->
15 <value>root</value>
16 </property>
17 <property>
18 <name>javax.jdo.option.ConnectionPassword</name>
19 <!--自己mysql的密码哦-->
20 <value>123456</value>
21 </property>
22 </configuration>

停更......

天霸动霸tua,加油.....

2017-12-12 15:32:47

相关实践学习
基于CentOS快速搭建LAMP环境
本教程介绍如何搭建LAMP环境,其中LAMP分别代表Linux、Apache、MySQL和PHP。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
4月前
|
SQL 分布式计算 Hadoop
干翻Hadoop系列文章【02】:Hadoop、Hive、Spark的区别和联系
干翻Hadoop系列文章【02】:Hadoop、Hive、Spark的区别和联系
|
4月前
|
SQL 存储 大数据
【大数据技术Hadoop+Spark】Hive基础SQL语法DDL、DML、DQL讲解及演示(附SQL语句)
【大数据技术Hadoop+Spark】Hive基础SQL语法DDL、DML、DQL讲解及演示(附SQL语句)
78 0
|
7月前
|
SQL 分布式计算 Hadoop
Hadoop Hive面试连环炮 1
Hadoop Hive面试连环炮
36 0
|
4月前
|
SQL 存储 分布式计算
【大数据技术Hadoop+Spark】Hive数据仓库架构、优缺点、数据模型介绍(图文解释 超详细)
【大数据技术Hadoop+Spark】Hive数据仓库架构、优缺点、数据模型介绍(图文解释 超详细)
198 0
|
16天前
|
SQL 分布式计算 Hadoop
利用Hive与Hadoop构建大数据仓库:从零到一
【4月更文挑战第7天】本文介绍了如何使用Apache Hive与Hadoop构建大数据仓库。Hadoop的HDFS和YARN提供分布式存储和资源管理,而Hive作为基于Hadoop的数据仓库系统,通过HiveQL简化大数据查询。构建过程包括设置Hadoop集群、安装配置Hive、数据导入与管理、查询分析以及ETL与调度。大数据仓库的应用场景包括海量数据存储、离线分析、数据服务化和数据湖构建,为企业决策和创新提供支持。
57 1
|
3月前
|
SQL 数据采集 分布式计算
Hadoop和Hive中的数据倾斜问题及其解决方案
Hadoop和Hive中的数据倾斜问题及其解决方案
44 0
|
3月前
|
SQL 分布式计算 安全
HIVE启动错误:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeExcept
HIVE启动错误:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeExcept
138 0
|
3月前
|
SQL 存储 分布式计算
Hadoop中的Hive是什么?请解释其作用和用途。
Hadoop中的Hive是什么?请解释其作用和用途。
39 0
|
8月前
|
SQL 分布式计算 Ubuntu
基于Hadoop的数据仓库Hive安装
基于Hadoop的数据仓库Hive安装
189 0
|
4月前
|
SQL 分布式计算 Hadoop
[AIGC ~大数据] 深入理解Hadoop、HDFS、Hive和Spark:Java大师的大数据研究之旅
[AIGC ~大数据] 深入理解Hadoop、HDFS、Hive和Spark:Java大师的大数据研究之旅

热门文章

最新文章

相关实验场景

更多