hive添加字段报conflicting lock

简介:

昨天ETL开发的同事在给一个表添加字段的时候报错:conflictinglock present for xxx EXECLUSIVE mode,加了几次都失败,后来直接unlock tables后再加成功,我一看太暴力了=.=

之前没有启用concurrency支持,在上了查询平台后启用了;因此如果在做DDL操作的时候可以写一个简单的tool:

Ret = show locks xxx;

If ret is not null;

Sleep;

Retry;

Else

DDLTask

End

hive.lock.mapred.only.operationtrue.


本文转自MIKE老毕 51CTO博客,原文链接:http://blog.51cto.com/boylook/1308071,如需转载请自行联系原作者


相关文章
|
11月前
|
SQL 文件存储 数据库
Hive分区表的新增字段数据为null的问题解决方法
Hive分区表的新增字段数据为null的问题解决方法
253 0
|
12月前
|
SQL HIVE
Hdfs 导入Hive,时间相关的字段 导入后为NULL
Hdfs 导入Hive,时间相关的字段 导入后为NULL
71 0
|
SQL 分布式计算 运维
【大数据开发运维解决方案】sqoop增量导入oracle/mysql数据到hive时时间字段为null处理
前面几篇文章详细介绍了sqoop全量增量导入数据到hive,大家可以看到我导入的数据如果有时间字段的话我都是在hive指定成了string类型,虽然这样可以处理掉时间字段在hive为空的问题,但是在kylin创建增量cube时需要指定一个时间字段来做增量,所以上面那种方式不行,这里的处理方式为把string改成timestamp类型,看实验:
【大数据开发运维解决方案】sqoop增量导入oracle/mysql数据到hive时时间字段为null处理
|
SQL HIVE
hive创建表并指定字段分隔符
hive创建表并指定字段分隔符
|
SQL 分布式计算 关系型数据库
使用Spark 编码 写入 hive 的过程中 hive字段乱码 [解决方案]
由于元数据中的表结构中包含中文,我在抽取到spark过程中已经解决了一次乱码问题,具体显示为问题????,解决方法是在mysql连接上加参数 spark 字段乱码
352 0
|
SQL HIVE
Hive 删除一个字段
Hive 删除一个字段
|
SQL HIVE 网络性能优化
|
SQL 监控 数据库