Caused by: org.xml.sax.SAXParseException; systemId: file:/home/hadoop/hive-0.12.0/conf/hive-site.xml; lineNumber: 5; columnNumber: 2; The markup in th

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
云数据库 RDS PostgreSQL,集群系列 2核4GB
简介: 1:Hive安装的过程(Hive启动的时候报的错误),贴一下错误,和为什么错,以及解决方法: 1 [root@master bin]# ./hive 2 17/12/11 23:22:56 INFO Configuration.

1:Hive安装的过程(Hive启动的时候报的错误),贴一下错误,和为什么错,以及解决方法:

 1 [root@master bin]# ./hive
 2 17/12/11 23:22:56 INFO Configuration.deprecation: mapred.input.dir.recursive is deprecated. Instead, use mapreduce.input.fileinputformat.input.dir.recursive
 3 17/12/11 23:22:56 INFO Configuration.deprecation: mapred.max.split.size is deprecated. Instead, use mapreduce.input.fileinputformat.split.maxsize
 4 17/12/11 23:22:56 INFO Configuration.deprecation: mapred.min.split.size is deprecated. Instead, use mapreduce.input.fileinputformat.split.minsize
 5 17/12/11 23:22:56 INFO Configuration.deprecation: mapred.min.split.size.per.rack is deprecated. Instead, use mapreduce.input.fileinputformat.split.minsize.per.rack
 6 17/12/11 23:22:56 INFO Configuration.deprecation: mapred.min.split.size.per.node is deprecated. Instead, use mapreduce.input.fileinputformat.split.minsize.per.node
 7 17/12/11 23:22:56 INFO Configuration.deprecation: mapred.reduce.tasks is deprecated. Instead, use mapreduce.job.reduces
 8 17/12/11 23:22:56 INFO Configuration.deprecation: mapred.reduce.tasks.speculative.execution is deprecated. Instead, use mapreduce.reduce.speculative
 9 [Fatal Error] hive-site.xml:5:2: The markup in the document following the root element must be well-formed.
10 17/12/11 23:22:57 FATAL conf.Configuration: error parsing conf file:/home/hadoop/hive-0.12.0/conf/hive-site.xml
11 org.xml.sax.SAXParseException; systemId: file:/home/hadoop/hive-0.12.0/conf/hive-site.xml; lineNumber: 5; columnNumber: 2; The markup in the document following the root element must be well-formed.
12     at com.sun.org.apache.xerces.internal.parsers.DOMParser.parse(DOMParser.java:257)
13     at com.sun.org.apache.xerces.internal.jaxp.DocumentBuilderImpl.parse(DocumentBuilderImpl.java:347)
14     at javax.xml.parsers.DocumentBuilder.parse(DocumentBuilder.java:150)
15     at org.apache.hadoop.conf.Configuration.parse(Configuration.java:2173)
16     at org.apache.hadoop.conf.Configuration.parse(Configuration.java:2161)
17     at org.apache.hadoop.conf.Configuration.loadResource(Configuration.java:2229)
18     at org.apache.hadoop.conf.Configuration.loadResources(Configuration.java:2195)
19     at org.apache.hadoop.conf.Configuration.getProps(Configuration.java:2102)
20     at org.apache.hadoop.conf.Configuration.get(Configuration.java:1068)
21     at org.apache.hadoop.hive.conf.HiveConf.initialize(HiveConf.java:1141)
22     at org.apache.hadoop.hive.conf.HiveConf.<init>(HiveConf.java:1087)
23     at org.apache.hadoop.hive.common.LogUtils.initHiveLog4jCommon(LogUtils.java:74)
24     at org.apache.hadoop.hive.common.LogUtils.initHiveLog4j(LogUtils.java:58)
25     at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:630)
26     at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:614)
27     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
28     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
29     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
30     at java.lang.reflect.Method.invoke(Method.java:606)
31     at org.apache.hadoop.util.RunJar.main(RunJar.java:212)
32 Exception in thread "main" java.lang.RuntimeException: org.xml.sax.SAXParseException; systemId: file:/home/hadoop/hive-0.12.0/conf/hive-site.xml; lineNumber: 5; columnNumber: 2; The markup in the document following the root element must be well-formed.
33     at org.apache.hadoop.conf.Configuration.loadResource(Configuration.java:2338)
34     at org.apache.hadoop.conf.Configuration.loadResources(Configuration.java:2195)
35     at org.apache.hadoop.conf.Configuration.getProps(Configuration.java:2102)
36     at org.apache.hadoop.conf.Configuration.get(Configuration.java:1068)
37     at org.apache.hadoop.hive.conf.HiveConf.initialize(HiveConf.java:1141)
38     at org.apache.hadoop.hive.conf.HiveConf.<init>(HiveConf.java:1087)
39     at org.apache.hadoop.hive.common.LogUtils.initHiveLog4jCommon(LogUtils.java:74)
40     at org.apache.hadoop.hive.common.LogUtils.initHiveLog4j(LogUtils.java:58)
41     at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:630)
42     at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:614)
43     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
44     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
45     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
46     at java.lang.reflect.Method.invoke(Method.java:606)
47     at org.apache.hadoop.util.RunJar.main(RunJar.java:212)
48 Caused by: org.xml.sax.SAXParseException; systemId: file:/home/hadoop/hive-0.12.0/conf/hive-site.xml; lineNumber: 5; columnNumber: 2; The markup in the document following the root element must be well-formed.
49     at com.sun.org.apache.xerces.internal.parsers.DOMParser.parse(DOMParser.java:257)
50     at com.sun.org.apache.xerces.internal.jaxp.DocumentBuilderImpl.parse(DocumentBuilderImpl.java:347)
51     at javax.xml.parsers.DocumentBuilder.parse(DocumentBuilder.java:150)
52     at org.apache.hadoop.conf.Configuration.parse(Configuration.java:2173)
53     at org.apache.hadoop.conf.Configuration.parse(Configuration.java:2161)
54     at org.apache.hadoop.conf.Configuration.loadResource(Configuration.java:2229)
55     ... 14 more

2:我的错误主要是配置Hive-site.xml的时候少写了开头和结尾的<configuration></configuration>,导致的错误,下面贴一下这个配置文件易错的地方:

 1 <!--开头和结尾,一定不要忘记-->
 2 <configuration>
 3 <property>
 4 <name>javax.jdo.option.ConnectionURL</name>
 5 <!--自己的主机名称或者localhost-->
 6 <value>jdbc:mysql://主机名称:3306/hive?createDatabaseIfNotExist=true</value>
 7 </property>
 8 <property>
 9 <name>javax.jdo.option.ConnectionDriverName</name>
10 <value>com.mysql.jdbc.Driver</value>
11 </property>
12 <property>
13 <name>javax.jdo.option.ConnectionUserName</name>
14 <!--mysql的账号-->
15 <value>root</value>
16 </property>
17 <property>
18 <name>javax.jdo.option.ConnectionPassword</name>
19 <!--自己mysql的密码哦-->
20 <value>123456</value>
21 </property>
22 </configuration>

停更......

天霸动霸tua,加油.....

2017-12-12 15:32:47

相关实践学习
如何在云端创建MySQL数据库
开始实验后,系统会自动创建一台自建MySQL的 源数据库 ECS 实例和一台 目标数据库 RDS。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
1月前
|
SQL 分布式计算 关系型数据库
Hadoop-13-Hive 启动Hive 修改启动参数命令行启动测试 几句简单的HQL了解Hive
Hadoop-13-Hive 启动Hive 修改启动参数命令行启动测试 几句简单的HQL了解Hive
59 2
|
1月前
|
分布式计算 Java Hadoop
Hadoop-18 Flume HelloWorld 第一个Flume尝试!编写conf实现Source+Channel+Sink 控制台查看收集到的数据 流式收集
Hadoop-18 Flume HelloWorld 第一个Flume尝试!编写conf实现Source+Channel+Sink 控制台查看收集到的数据 流式收集
32 1
|
1月前
|
SQL 分布式计算 Hadoop
手把手的教你搭建hadoop、hive
手把手的教你搭建hadoop、hive
95 1
|
1月前
|
XML 分布式计算 资源调度
大数据-02-Hadoop集群 XML配置 超详细 core-site.xml hdfs-site.xml 3节点云服务器 2C4G HDFS Yarn MapRedece(一)
大数据-02-Hadoop集群 XML配置 超详细 core-site.xml hdfs-site.xml 3节点云服务器 2C4G HDFS Yarn MapRedece(一)
154 5
|
1月前
|
SQL 分布式计算 关系型数据库
Hadoop-21 Sqoop 数据迁移工具 简介与环境配置 云服务器 ETL工具 MySQL与Hive数据互相迁移 导入导出
Hadoop-21 Sqoop 数据迁移工具 简介与环境配置 云服务器 ETL工具 MySQL与Hive数据互相迁移 导入导出
53 3
|
1月前
|
XML 资源调度 网络协议
大数据-02-Hadoop集群 XML配置 超详细 core-site.xml hdfs-site.xml 3节点云服务器 2C4G HDFS Yarn MapRedece(二)
大数据-02-Hadoop集群 XML配置 超详细 core-site.xml hdfs-site.xml 3节点云服务器 2C4G HDFS Yarn MapRedece(二)
92 4
|
1月前
|
分布式计算 资源调度 Hadoop
大数据-01-基础环境搭建 超详细 Hadoop Java 环境变量 3节点云服务器 2C4G XML 集群配置 HDFS Yarn MapRedece
大数据-01-基础环境搭建 超详细 Hadoop Java 环境变量 3节点云服务器 2C4G XML 集群配置 HDFS Yarn MapRedece
77 4
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
46 2
|
1月前
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
86 0
|
4月前
|
存储 缓存 分布式计算
Hadoop配置文件core-site.xml
【7月更文挑战第17天】
267 2
Hadoop配置文件core-site.xml

相关实验场景

更多
下一篇
无影云桌面