Regionserver启动后又关闭

简介: Regionserver启动后又关闭

今天启动hbase shell,输入hbase命令时报错:


ERROR [regionserver/regionserver1/172.18.0.61:16020] regg
ionserver.HRegionServer: Shutdown / close of WAL failed: org.apache.hadoop.hdfs..
server.namenode.LeaseExpiredException: No lease on /hbase/WALs/regionserver1.shaa
downet,16020,1522226971485/regionserver1.shadownet%2C16020%2C1522226971485.defauu
lt.1522237781682 (inode 16832): File does not exist. Holder DFSClient_NONMAPREDUU
CE_-210251064_1 does not have any open files.


解决办法,调整xcievers参数


默认是4096,改为8192


进入hdfs-site.xml文件


<property>
<name>dfs.datanode.max.xcievers</name>
<value>8192</value>
</property>


dfs.datanode.max.xcievers 参数说明


一个 Hadoop HDFS Datanode 有一个同时处理文件的上限. 这个参数叫 xcievers (Hadoop的作者把这个单词拼错了). 在你加载之前,先确认下你有没有配置这个文件conf/hdfs-site.xml里面的xceivers参数,至少要有4096。



相关文章
|
分布式计算 安全 Hadoop
HBase启动时有进程webUI不显示HRegionServer各种情况解决方案
HBase启动时有进程webUI不显示HRegionServer各种情况解决方案
373 0
|
NoSQL 大数据 分布式数据库
【HBase】(2)-集群的启动与关闭
【HBase】(2)-集群的启动与关闭
366 0
【HBase】(2)-集群的启动与关闭
|
6月前
|
存储
NameNode 故障无法重新启动解决方法
当NameNode进程挂掉时,若无数据丢失,可直接使用`hdfs --daemon start namenode`重启。但若数据丢失,需从SecondaryNameNode恢复。首先查看启动日志,确认因数据丢失导致的未启动成功问题。接着,将SecondaryNameNode的备份数据拷贝至NameNode的数据存储目录,目录路径在`core-site.xml`中设定。进入NameNode节点,使用`scp`命令从SecondaryNameNode复制数据后,重启NameNode进程,故障即可修复。
654 0
|
分布式计算 资源调度 运维
Spark集群部署和启动与关闭
Spark集群部署和启动与关闭
Spark集群部署和启动与关闭
|
存储 分布式计算 资源调度
Hadoop集群部署和启动与关闭
Hadoop集群部署和启动与关闭
|
中间件 Perl
MQ启动与关闭
MQ启动与关闭
568 0
|
分布式计算 Hadoop
如何打开,关闭hadoop集群
如何打开,关闭hadoop集群
199 0
|
分布式计算 Spark
开启spark集群
开启spark集群
|
Java Linux
Zookeeper安装以及基本服务开启关闭操作指令和配置参数解读
Zookeeper安装以及基本服务开启关闭操作指令和配置参数解读
Zookeeper安装以及基本服务开启关闭操作指令和配置参数解读
|
存储 资源调度 分布式计算
Hadoop集群启动和停止方法
Hadoop集群启动和停止方法
473 0