抛出问题:
在初学Hadoop的时候,由于自己手残,把Hadoop格式化了,结果导致很多数据丢失,hbase和kafka不能正常使用,如图所示:
查找问题:
于是我将hbase全部重新安装,结果还是不能解决。后来经过高人指点,找出了出现这种问题的原因:
因为zookeeper上存储了hbase和kafka的元数据,hdfs存储了hbase数据本身,所以重新安装和格式化Hadoop没有作用
解决问题:
解决方案是,通过zookeeper的客户端命令,将hbase中的之前创建的表和kafka之前创建的topic给删除了就可以。
进入到/opt/Hadoop/zookeeper/bin目录下:
zkCli.sh
[zk: localhost:2181(CONNECTED) 3] ls /hbase/table
[hbase:meta, hbase:namespace, weblogs, weblog]
将之前创建的weblogs这个表给删除
rmr /hbase/table/weblogs
同理,也需要将kafka的topics给删除
ls /brokers/topics
[weblogs, __consumer_offsets]
rmr /brokers/topics/weblogs
测试结果:
删除过之后在重新创建刚才的表,就可以创建了
创建hbase中的weblogs表
create 'weblogs','info'
创建kafka中的topics
bin/kafka-topics.sh --create --zookeeper node1:2181,node2:2181,node3:2181 --replication-factor 1 --partitions 1 --topi
这样问题就解决了
总结:千万不要随便格式化Hadoop!!!!!!