Havenask这里主要各种是block cache、bloom filter等相关东西重新算,类似这些事情吧?关于merge,比如在线端,加载了10个已有数据作为磁盘型的segment,同时增量不定期更新,也就是还有一个内存型segment慢慢在写入,那么日常的查询请求,就是查10+1=11个segment;
如果我开启了auto_merge,就会每merge_internal_ms时间,把当前全部segment做个compact,类似rocksdb,给删除的彻底删除,同key的合并value,最终segment数目降低一些是吧
差不多,倒排链过长的时候按照某些feature构建出更短更重要的倒排链作为辅助查询,牺牲召回文档数,提升查询性能 此回答整理自钉群“Havenask开源官方技术交流群”
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。