停🤚
不要往下滑了,
默默想5min,
看看这5道面试题你都会吗?
面试题 01、MapReduce写入Hbase的原理和要求是什么? 面试题02、什么是BulkLoad,用于什么场景? 面试题 03、协处理器是什么?Hbase中提供了几种协处理器? 面试题04、Hbase常见优化有哪些? 面试题05、为什么Kafka不支持读写分离?
以下答案仅供参考:
面试题 01、MapReduce写入Hbase的原理和要求是什么?
•MapReduce写入Hbase原理:封装了一个TableOutputFormat来实现写入Hbase的数据
•要求
–写入Hbase的数据的V的类型必须为Put类型
面试题02、什么是BulkLoad,用于什么场景?
•BulkLoad是指将数据直接转换为StoreFile文件,放入Hbase中,不经过Hbase的内存,避免大量数据进入内存,又从内存进入HDFS
•应用:大数据量批量写入Hbase
面试题 03、协处理器是什么?Hbase中提供了几种协处理器?
•协处理器指的是Hbase提供了一些开发接口,可以自定义开发一些功能集成到Hbase中
•类似于Hive中的UDF,当没有这个功能时,可以使用协处理器来自定义开发,让Hbase支持对应的功能
•协处理器分为两类
–Observer:观察者类,类似于监听器的实现
–Endpoint:终端者类,类似于存储过程的实现
面试题04、Hbase常见优化有哪些?
•内存优化:针对于不同的读写场景,合理的调整Memstore和BlockCache的比例大小
•压缩优化:对列族配置压缩存储,减少IO消耗
•布隆过滤:基于数据文件构建布隆索引,加快数据查询
•提高客户端缓存空间、指定每次扫描的行数、设置合适的GC算法等
•其他优化
–Linux句柄数优化,提高Linux线程、文件通道等资源句柄数
–HDFS句柄数优化:提高文件打开线程数、提高连接超时时间
–Zookeeper优化:优化连接超时时间
面试题05、为什么Kafka不支持读写分离?
在 Kafka 中,生产者写入消息、消费者读取消息的操作都是与 leader 副本进行交互的,从 而实现的是一种主写主读的生产消费模型。
Kafka 并不支持主写从读,因为主写从读有 2 个很明 显的缺点:
(1)数据一致性问题。数据从主节点转到从节点必然会有一个延时的时间窗口,这个时间 窗口会导致主从节点之间的数据不一致。某一时刻,在主节点和从节点中 A 数据的值都为 X, 之后将主节点中 A 的值修改为 Y,那么在这个变更通知到从节点之前,应用读取从节点中的 A 数据的值并不为最新的 Y,由此便产生了数据不一致的问题。
(2)延时问题。类似 Redis 这种组件,数据从写入主节点到同步至从节点中的过程需要经 历网络→主节点内存→网络→从节点内存这几个阶段,整个过程会耗费一定的时间。而在 Kafka 中,主从同步会比 Redis 更加耗时,它需要经历网络→主节点内存→主节点磁盘→网络→从节 点内存→从节点磁盘这几个阶段。对延时敏感的应用而言,主写从读的功能并不太适用。
到此7天的Hbase复习就结束了,呼~
总结
今天我们复习了面试中常考的Hbase相关的五个问题,你做到心中有数了么?
其实做这个专栏我也有私心,就是希望借助每天写一篇面试题,督促自己学习,以免在吹水群甚至都没有谈资!
对了,如果你的朋友也在准备面试
,请将这个系列扔给他,
好了,今天就到这里,学废了的同学,记得在评论区留言:打卡
。给同学们以激励。