- Kibana使用
- 启动
1.双击 /bin/kibana.bat 进行启动
1.启动成功
访问
http://localhost:5601
控制台
点击左侧菜单“Dev Tools”就可以访问 ElasticSearch的控制台
基本使用
常见错误
启动错误1:提示配置xpack.reporting.encryptionKey
1.启动错误2:提示配置xpack.security.encryptionKey
1.修改 kibana.yml文件,添加如下内容
# xpack.reporting.encryptionKey: "任意字符"
xpack.reporting.encryptionKey: "liangtong"
# xpack.security.encryptionKey: "32长度随机字符串"
xpack.security.encryptionKey: "afb73042ba0411ebb4aa54ee7547b0a2"
中文分词器
2.分词与分词器
- 分词 Analysis:对文本进行分析,将全文本转换一系列单词的过程。
- 分词器Analyzer :分词Analysis通过分词器Analyzer实现的。
3.默认es不会对中文进行分词
POST _analyze { "text": ["我是中国人"] }
1.使用ik_max_word 进行分词
POST _analyze { "analyzer": "ik_max_word", "text": ["我是中国人"] }
1.安装IK分词器(支持中文分词)
1.IK分词器提供了源代码(maven项目),通过打包生产zip文件
Releases · medcl/elasticsearch-analysis-ik · GitHub
1.使用Kibana进行测试
POST _analyze { "analyzer": "ik_max_word", "text": ["我是中国人"] }
1.测试结果
{ "tokens": [ { "token": "我", "start_offset": 0, "end_offset": 1, "type": "CN_CHAR", "position": 0 }, { "token": "是", "start_offset": 1, "end_offset": 2, "type": "CN_CHAR", "position": 1 }, { "token": "中国人", "start_offset": 2, "end_offset": 5, "type": "CN_WORD", "position": 2 }, { "token": "中国", "start_offset": 2, "end_offset": 4, "type": "CN_WORD", "position": 3 }, { "token": "国人", "start_offset": 3, "end_offset": 5, "type": "CN_WORD", "position": 4 } ] }
Kibana常见配置
整合Elasticsearch(可选)
2.通过 config/kibana.yml文件,可以修改elasticsearch的服务地址
elasticsearch.url: "http://localhost:9200"
head服务(可选)
基本配置
2.步骤6:安装和启动head服务(查看elasticsearch索引工具)
1.访问head服务,查阅以后索引信息
http://localhost:8084/head/index.html
1.使用head进行分词测试
跨域问题:elasticsearch支持跨域
2.在elasticsearch的config目录下,修改elasticsearch.yml文件,添加跨域内容
#Cross domain
http.cors.enabled: true
http.cors.allow-origin: "*"
1.如果没有配置跨域,不能访问