本次和大家分享的主要是docker搭建es和springboot操作es的内容,也便于工作中或将来使用方便,因此从搭建es环境开始到代码插入信息到es中;主要节点如下:
- elasticsearch启动
- mobz/elasticsearch-head启动
- kibana启动
- springboot操作es
1.elasticsearch启动
我本机环境是windows10,要挂载es的配置文件需要在本机上创建配置文件,因此这里创建配置文件C:UsersAdministratoreses-master.yml,配置文件内容如:
#集群名称
cluster.name: "shenniu_elasticsearch"
#本节点名称
node.name: master
#是否master节点
node.master: true
#是否存储数据
node.data: true
#head插件设置
http.cors.enabled: true
http.cors.allow-origin: "*"
http.port: 9200
transport.tcp.port: 9300
#可以访问的ip
network.bind_host: 0.0.0.0
这里配置一个es的cluster的master节点,集群名称shenniu_elasticsearch,有了配置下面就是启动es命令:
docker pull elasticsearch
docker run -d --name es-master -p 9200:9200 -p 9300:9300 -v C:/Users/Administrator/es/es-mast
er.yml:/usr/share/elasticsearch/config/elasticsearch.yml elasticsearch
启动完后在浏览器浏览 http://192.168.183.9:9200/ 得到如下成功信息:
2.mobz/elasticsearch-head启动
elasticsearch-head做为es集群状态查看插件工具,用起来还是挺方便的,启动命令如:
docker pull mobz/elasticsearch-head
docker run -d -p 9100:9100 --name mobz-es mobz/elasticsearch-head
然后在浏览器录入 http://192.168.183.9:9100/ ,能够看到插件的操作界面,其中包含了索引,数据,基本查询等功能很是方便
为了博客内容充实性,这里我添加了一些日志到es中,通过head工具能够看到如:
3.kibana启动
kibana是专门针对es内容的一款查看工具,和elasticsearch-head不同的是前者主要是内容显示,通常有elk的组合,这里同样通过docker来启动下
docker pull kibana
docker run --name kibana -e ELASTICSEARCH_URL=http://192.168.183.9:9200 -p 5601:5601 -d kibana
这里需要配置关联的es的地址,否则kibana界面无法正常使用,倘若es停了,kibana界面也会变成如下
如果es和kibana都正常的话,就能够进入到如下界面
4.springboot操作es
要说springboot中使用es有很多方式,这里使用的是它集成的包,通过maven添加如下依赖:
<!--es-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-elasticsearch</artifactId>
</dependency>
然后需要在配置文件中增加关于es的的相关配置,由于这里采用的是resposity操作es,所以这里需要设置为启动状态:
spring:
data:
elasticsearch:
cluster-name: shenniu_elasticsearch
cluster-nodes: 192.168.183.9:9300
repositories:
enabled: true
cluster-name对应的是上面启动es时集群配置的名称,cluster-nodes对应集群访问的ip和端口;一般往es中存储的都是对象形式,所以这里需要定义一个实体类,这里是 MoEsLog:
@Document(indexName = "eslog")
public class MoEsLog {
private String message;
public String getMessage() {
return message;
}
public void setMessage(String message) {
this.message = message;
}
private String dateTime;
public String getDateTime() {
return dateTime;
}
public void setDateTime(String dateTime) {
this.dateTime = dateTime;
}
@Id
private String _id;
}
通过注解@Document里面的indexName来创建es索引名,然后通过继承ElasticsearchRepository来使用里面的增删改查方法,这里创建一个es工厂接口如:
@Repository
public interface IEsRepository extends ElasticsearchRepository<MoEsLog, String> {
}
到此基本的配置和底层的工厂接口都完成了,剩下的就是怎么调用和简单的封装了,这里以save方法为例:
@Service
public class EsLogServiceImpl implements EsLogService {
@Autowired
private IEsRepository esRepository;
@Override
public void addEsLog(String message) {
Executors.newFixedThreadPool(10).submit(new Runnable() {
@Override
public void run() {
SimpleDateFormat simpleDateFormat = new SimpleDateFormat("yyyy-MM-dd'T'HH:mm:ss.SSSZ");
MoEsLog esLog = new MoEsLog();
esLog.setMessage(message);
esLog.setDateTime(simpleDateFormat.format(new Date()));
esRepository.save(esLog);
}
});
}
@Override
public <T> void addEs(T t) {
addEsLog(JsonUtil.toJson(t));
}
}
值得主要的是里面对datetime属性赋值的是一个时间字符串,格式如:yyyy-MM-dd'T'HH:mm:ss.SSSZ,这里匹配es的时间格式,不出意外的运行程序后,能够在kibana中看到如下信息:
这里再转到9100端口的mobz/elasticsearch-head界面,也能够看到如下的记录: