Elasticsearch评分相关度算法解析
TF算法
TF
算法,全称 Term frequency
,索引词频率算法。意义就像它的名字,会根据索引词的频率来计算,索引词出现的次数越多,分数越高。
例子如下
- 搜索
hello
有两份文档:A文档:hello world!
,B文档:hello hello hello
结果是B文档的 score
大于A文档。
- 搜索
hello world
有两份文档:A文档:hello world!
,B文档:hello,are you ok?
结果是A文档的scor
e大于B文档。
要根据索引词来综合考虑。
如果不在意词在某个字段中出现的频次,而只在意是否出现过,则可以在字段映射中禁用词频统计
{ "mappings": { "_doc": { "properties": { "text": { "type": "string", "index_options": "docs" } } } } }
将参数 index_options
设置为 docs
可以禁用词频统计及词频位置,这个映射的字段不会计算词的出现次数,对于短语或近似查询也不可用。要求精确查询的 not_analyzed
字符串字段会默认使用该设置。
IDF算法
IDF
算法全称 Inverse Document Frequency
,逆文本频率。搜索文本的词在整个索引的所有文档中出现的次数越多,这个词所占的 score
的比重就越低。
例子如下
搜索hello world
,其中索引中hello
出现次数1000
次,world
出现100
次。
有三份文档:A
文档 hello,are you ok?
, B
文档 The world is interesting!
, C
文档 hello world!
结果是:C>B>A
由于hello
出现频率高,所以单个hello
得到的score
比不上world
。
Field-length norm算法 (字段长度归一值)
- 字段的长度是多少?
字段越短,字段的权重越高 。如果词出现在类似标题 title
这样的字段,要比它出现在内容 body
这样的字段中的相关度更高。
例子如下:
搜索 hello world!
有两份文档:A文档 hello world!
,B文档 hello world,I'm xxx!
结果是:A>B
词频(term frequency)、逆向文档频率(inverse document frequency)和字段长度归一值(field-length norm)——是在索引时计算并存储的。 最后将它们结合在一起计算单个词在特定文档中的 权重 。
当然,查询通常不止一个词,所以需要一种合并多词权重的方式——向量空间模型(vector space model)。
三种算法的综合
(下面属于理论分析,并不真实这样计算)
TF
算法针对在 Field
中,索引词出现的频率;
IDF
算法针对在整个索引中的索引词出现的频率;
Field-length norm
算法针对 Field
的长度。
那么可以这样分析,由于 Field-length norm
算法并不直接针对 score
,所以它是最后起作用的,它理论上类似于一个除数。而 TF
和 IDF
是平等的, IDF
计算出每一个索引词的 score
量, TF
来计算整个文档中索引词的 score
的加和。
- 也就是如下的计算:
- IDF:计算索引词的单位
score
,比如hello=0.1,world=0.2
, - TF:计算整个文档的
sum(score)
,hello world!I'm xxx.
得到0.1+0.2=0.3
- Field-length norm:将
sum(score)/对应Field的长度
,得出的结果就是score
。
利用score计算API分析
创建模拟数据
- PUT /test-7
{ "settings": { "index":{ "number_of_shards":3, "number_of_replicas":1 } }, "mappings": { "properties": { "name":{ "type": "text" } } } }
- PUT /test-7/_doc/1
{ "name": "li feng" }
- PUT /test-7/_doc/2
{ "name": "li er" }
explain分析
- /test-7/_doc/_search?explain=true
{ "query": { "match": { "name": "li" } } }
- 响应
{ "took": 1, "timed_out": false, "_shards": { "total": 3, "successful": 3, "skipped": 0, "failed": 0 }, "hits": { "total": { "value": 2, "relation": "eq" }, "max_score": 0.2876821, "hits": [ { "_shard": "[test-7][1]", "_node": "DpJZ5rhrStKpiur5hZ_ilw", "_index": "test-7", "_type": "_doc", "_id": "2", "_score": 0.2876821, "_source": { "name": "li er" }, // 先列出分数 "_explanation": { "value": 0.2876821, // 分数的组成, details详细分析 "description": "weight(name:li in 0) [PerFieldSimilarity], result of:", // 解释分数 "details": [ { "value": 0.2876821, "description": "score(freq=1.0), computed as boost * idf * tf from:", "details": [ { "value": 2.2, "description": "boost", "details": [] }, { "value": 0.2876821, "description": "idf, computed as log(1 + (N - n + 0.5) / (n + 0.5)) from:", // 逆文本频率 计算 idf "details": [ { "value": 1, // 表示从当前分片中匹配到的文档记录数 "description": "n, number of documents containing term", "details": [] }, { "value": 1, // 表示的是当前查询记录所处的分片上当前索引的文档数; 如果我们有多个分片,那么索引数据会被存储到多个分片上,每个分片上的文档记录数相加,得到的就是当前索引的文档总计录数了 "description": "N, total number of documents with field", "details": [] } ] }, { "value": 0.45454544, "description": "tf, computed as freq / (freq + k1 * (1 - b + b * dl / avgdl)) from:", // 索引词频率计算 tf "details": [ { "value": 1.0, // 检索关键词组在被检索字段的词组中出现的频率,即出现了多少次,比如上面的执行计划搜索 li 在字段中出现1次 即为1 "description": "freq, occurrences of term within document", "details": [] }, { "value": 1.2, // 词的饱和度值,默认值为1.2 "description": "k1, term saturation parameter", "details": [] }, { "value": 0.75, // 长度归一化评分 默认值为0.75 "description": "b, length normalization parameter", "details": [] }, { "value": 2.0, // 被检索字段分词后的词组长度 "description": "dl, length of field", "details": [] }, { "value": 2.0, // 分片中当前被检索字段的平均词组数值 "description": "avgdl, average length of field", "details": [] } ] } ] } ] } }, { "_shard": "[test-7][2]", "_node": "DpJZ5rhrStKpiur5hZ_ilw", "_index": "test-7", "_type": "_doc", "_id": "1", "_score": 0.2876821, "_source": { "name": "li feng" }, "_explanation": { "value": 0.2876821, "description": "weight(name:li in 0) [PerFieldSimilarity], result of:", "details": [ { "value": 0.2876821, "description": "score(freq=1.0), computed as boost * idf * tf from:", "details": [ { "value": 2.2, "description": "boost", "details": [] }, { "value": 0.2876821, "description": "idf, computed as log(1 + (N - n + 0.5) / (n + 0.5)) from:", "details": [ { "value": 1, "description": "n, number of documents containing term", "details": [] }, { "value": 1, "description": "N, total number of documents with field", "details": [] } ] }, { "value": 0.45454544, "description": "tf, computed as freq / (freq + k1 * (1 - b + b * dl / avgdl)) from:", "details": [ { "value": 1.0, "description": "freq, occurrences of term within document", "details": [] }, { "value": 1.2, "description": "k1, term saturation parameter", "details": [] }, { "value": 0.75, "description": "b, length normalization parameter", "details": [] }, { "value": 2.0, "description": "dl, length of field", "details": [] }, { "value": 2.0, "description": "avgdl, average length of field", "details": [] } ] } ] } ] } } ] } }
上面还有一个 boost
,这个我们解释一下,
对于每一个 term
的权值,其默认值为2.2,我们可以在创建索引 mapping
结构的时候指定字段的 boost
的值,更多情况下,我们可以使用 boost
来作为 ES
搜索结果的调优方案,比如搜索文档标题我们可以将boost
权重设置大一些,在搜索文档内容的时候,我们可以将 boost
权重设置小一些,从而实现动态的调整搜索结果,实现搜索不同的字段计算权重不同