手把手教学:使用Elastic search和Kibana进行数据探索(Python语言)

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介:

探索性数据分析(EDA)帮助我们认识底层的数据基结构及其动力学,以此来最大限度发掘出数据的可能性。EDA是提取重要变量和检测异常值的关键。尽管存在着很多种机器学习算法,但EDA仍被视为理解和推动业务的最关键算法之一。

其实有很多种方式都能够执行实现EDA,例如Python的matplotlib、seaborn库,R语言的ggplot2,而且网络上有很多很好的资源,例如John W. Tukey的“探索性数据分析”, Roger D. Peng 的“用R进行探索性数据分析”等,不胜枚举。

在本文中,我主要讲解下如何使用Elastic search和Kibana实现EDA。

目录:

1. Elastic search

2. Kibana

3. 创建数据表

  • 数据索引
  • 链接Kibana
  • 可视化

4. 搜索栏

1. Elastic Search (ES)

Elastic Search是一个开放源码,RESTful分布式和可扩展的搜索引擎。由于其简单的设计和分布式特性,Elastic Search从大量级数据(PB)中进行简单或复杂的查询、提取结果都非常迅速。另外相较于传统数据库被模式、表所约束,Elastic Search工作起来也更加容易。

Elastic Search提供了一个具有HTTP Web界面和无模式JSON文档的分布式、多租户的全文搜索引擎。

ES安装

安装和初始化是相对简单的,如下所示:

  • 下载并解压Elasticsearch包
  • 改变目录到Elasticsearch文件夹
  • 运行bin/ Elasticsearch(或在Windows上运行bin \elasticsearch.bat)

Elasticsearch实例在默认配置的浏览器中进行本地运行http://localhost:9200

2.Kibana

Kibana是一个基于Elasticsearch的开源数据挖掘和可视化工具,它可以帮助用户更好地理解数据。它在Elasticsearch集群索引的内容之上提供可视化功能。

安装

安装和初始化的过程与Elasticsearch类似:

  • 下载并解压Kibana包
  • 用编辑器打开config/ Kibana.yml,配置elasticsearch.url指向本地ElasticSearch实例所在位置
  • 更改目录到Kibana文件夹
  • 运行bin/ Kibana(或在Windows上运行bin \ kibana.bat)

Kibana实例在默认配置的浏览器中进行本地运行http://localhost:5601.

将运行Kibana的终端保持打开状态,可以保证实例不断的运行。你也可以使用nohup模式在后台运行实例。

3. 创建数据表

使用ES和Kibana创建仪表板主要有三个步骤。接下来我将会用贷款预测的实际问题的数据来示例如何创建一个仪表板。请注册该问题,以便能够下载数据。请检查数据字典以获得更多详细信息。

注:在本文中,我将使用python读取数据并将数据插入到Elasticsearch中,并通过Kibana进行可视化。

读取数据


  
  
  1. import pandas as pd 
  2. train_data_path = '../loan_prediction_data/train_u6lujuX_CVtuZ9i.csv' 
  3. test_data_path = '../loan_prediction_data/test_Y3wMUE5_7gLdaTN.csv' 
  4. train = pd.read_csv(train_data_path); print(train.shape) 
  5. test = pd.read_csv(test_data_path); print(test.shape) 

结果:


  
  
  1. (614, 13) 
  2. (367, 12) 

3.1 数据索引

Elasticsearch将数据索引到其内部数据格式,并将其存储在类似于JSON对象的基本数据结构中。请找到下面的Python代码,将数据插入到ES当中。

请如下所示安装pyelasticsearch库以便通过Python索引。


  
  
  1. pip install pyelasticsearch 

  
  
  1. from time import time 
  2. from pyelasticsearch import ElasticSearch 
  3.  
  4. CHUNKSIZE=100 
  5.  
  6. index_name_train = "loan_prediction_train" 
  7. doc_type_train = "av-lp_train" 
  8.  
  9. index_name_test = "loan_prediction_test" 
  10. doc_type_test = "av-lp_test" 

  
  
  1. def index_data(data_path, chunksize, index_name, doc_type): 
  2.     f = open(data_path) 
  3.     csvfile = pd.read_csv(f, iterator=True, chunksize=chunksize)  
  4.     es = ElasticSearch('http://localhost:9200/'
  5.     try : 
  6.         es.delete_index(index_name) 
  7.     except : 
  8.         pass 
  9.     es.create_index(index_name) 
  10.     for i,df in enumerate(csvfile):  
  11.         records=df.where(pd.notnull(df), None).T.to_dict() 
  12.         list_records=[records[it] for it in records] 
  13.         try : 
  14.             es.bulk_index(index_name, doc_type, list_records) 
  15.         except : 
  16.             print("error!, skiping chunk!"
  17.             pass 

  
  
  1. index_data(train_data_path, CHUNKSIZE, index_name_train, doc_type_train) # Indexing train data 

  
  
  1. index_data(test_data_path, CHUNKSIZE, index_name_test, doc_type_test) # Indexing test data 

  
  
  1. DELETE /loan_prediction_train [status:404 request:0.010s] 
  2. DELETE /loan_prediction_test [status:404 request:0.009s] 

3.2 链接Kibana

  • 在浏览器上访问 http://localhost:5601
  • 去管理模块中选取索引模式,点击添加。
  • 如果你的索引数据中包含时间戳,则选复选框。否则,取消选中该框。
  • 将之前用于数据索引到ElasticSearch中的索引输入。 (例如:loan_prediction_train)。
  • 点击新建。

对loan_prediction_test重复上述4个步骤。 现在kibana已经与训练数据链接,并测试数据是否已经存在于elastic search中。

3.3可视化

  • 单击 可视化>创建可视化>选择可视化类型>选择索引(训练或测试)>构建

例一

选择垂直条形图,并选择绘制Loan_status分布的训练索引。

将y轴作为计数,x轴代表贷款状态

  • 保存可视化
  • 添加仪表板>选择索引>添加只保存的可视化。

Voila!! Dashboard 生成啦!

例二

  • 单击可视化>创建可视化>选择可视化类型>选择索引(训练或测试)>构建
  • 选择垂直条形图,并选择训练索引绘制已婚分布。
  • 选择y轴为计数,x轴为已婚

  • 保存可视化。
  • 重复上述步骤进行索引测试。
  • 打开已创建的仪表板添加这些可视化

例三

类似的性别分布。这一次我们将使用饼图。

  • 单击可视化>创建可视化>选择可视化类型>选择索引(训练或测试)>构建
  • 选择饼图并选择列车索引绘制已婚分布。
  • 按“已分隔”列选择切片大小作为计数和分割片段

  • 保存可视化。
  • 重复上述步骤进行索引测试。
  • 打开已创建的仪表板添加这些可视化

最后,创建所有可视化的仪表板将如下所示!

是不是很漂亮!

剩下将由你来探索更多的elasticsearch和Kibana了,并创建多种多样的可视化效果。

4.搜索栏

搜索栏允许用户通过字符串来搜索来数据,这便有助于我们理解数据中的更改,并在一个特定属性中进行更改,这对于可视化来说是不容易的。

举例

  • 转到发现>添加Loan_Status和Credit_History
  • 使用搜索栏仅选择Credit_History为0.(Credit_History:0)
  • 现在可以查看Loan_Status列中的更改记录。

观点:大多数信用记录为0的客户没有收到贷款(贷款状态为N = 92.1%)              


本文作者:佚名

来源:51CTO

相关实践学习
使用阿里云Elasticsearch体验信息检索加速
通过创建登录阿里云Elasticsearch集群,使用DataWorks将MySQL数据同步至Elasticsearch,体验多条件检索效果,简单展示数据同步和信息检索加速的过程和操作。
ElasticSearch 入门精讲
ElasticSearch是一个开源的、基于Lucene的、分布式、高扩展、高实时的搜索与数据分析引擎。根据DB-Engines的排名显示,Elasticsearch是最受欢迎的企业搜索引擎,其次是Apache Solr(也是基于Lucene)。 ElasticSearch的实现原理主要分为以下几个步骤: 用户将数据提交到Elastic Search 数据库中 通过分词控制器去将对应的语句分词,将其权重和分词结果一并存入数据 当用户搜索数据时候,再根据权重将结果排名、打分 将返回结果呈现给用户 Elasticsearch可以用于搜索各种文档。它提供可扩展的搜索,具有接近实时的搜索,并支持多租户。
相关文章
|
19天前
|
机器学习/深度学习 TensorFlow 算法框架/工具
使用Python实现深度学习模型:智能数据隐私保护
使用Python实现深度学习模型:智能数据隐私保护 【10月更文挑战第3天】
62 0
|
7天前
|
数据采集 JSON 数据处理
抓取和分析JSON数据:使用Python构建数据处理管道
在大数据时代,电商网站如亚马逊、京东等成为数据采集的重要来源。本文介绍如何使用Python结合代理IP、多线程等技术,高效、隐秘地抓取并处理电商网站的JSON数据。通过爬虫代理服务,模拟真实用户行为,提升抓取效率和稳定性。示例代码展示了如何抓取亚马逊商品信息并进行解析。
抓取和分析JSON数据:使用Python构建数据处理管道
|
17天前
|
数据处理 Python
Python实用记录(十):获取excel数据并通过列表的形式保存为txt文档、xlsx文档、csv文档
这篇文章介绍了如何使用Python读取Excel文件中的数据,处理后将其保存为txt、xlsx和csv格式的文件。
37 3
Python实用记录(十):获取excel数据并通过列表的形式保存为txt文档、xlsx文档、csv文档
|
17天前
|
计算机视觉 Python
Python实用记录(九):将不同的图绘制在一起、将不同txt文档中的数据绘制多条折线图
这篇文章介绍了如何使用Python的OpenCV库将多张图片合并为一张图片显示,以及如何使用matplotlib库从不同txt文档中读取数据并绘制多条折线图。
37 3
Python实用记录(九):将不同的图绘制在一起、将不同txt文档中的数据绘制多条折线图
|
18天前
|
数据可视化 算法 Python
基于OpenFOAM和Python的流场动态模态分解:从数据提取到POD-DMD分析
本文介绍了如何利用Python脚本结合动态模态分解(DMD)技术,分析从OpenFOAM模拟中提取的二维切片数据,以深入理解流体动力学现象。通过PyVista库处理VTK格式的模拟数据,进行POD和DMD分析,揭示流场中的主要能量结构及动态特征。此方法为研究复杂流动系统提供了有力工具。
42 2
基于OpenFOAM和Python的流场动态模态分解:从数据提取到POD-DMD分析
|
5天前
|
数据可视化 算法 JavaScript
基于图论的时间序列数据平稳性与连通性分析:利用图形、数学和 Python 揭示时间序列数据中的隐藏模式
本文探讨了如何利用图论分析时间序列数据的平稳性和连通性。通过将时间序列数据转换为图结构,计算片段间的相似性,并构建连通图,可以揭示数据中的隐藏模式。文章介绍了平稳性的概念,提出了基于图的平稳性度量,并展示了图分区在可视化平稳性中的应用。此外,还模拟了不同平稳性和非平稳性程度的信号,分析了图度量的变化,为时间序列数据分析提供了新视角。
20 0
基于图论的时间序列数据平稳性与连通性分析:利用图形、数学和 Python 揭示时间序列数据中的隐藏模式
|
14天前
|
自然语言处理 算法 数据挖掘
探讨如何利用Python中的NLP工具,从被动收集到主动分析文本数据的过程
【10月更文挑战第11天】本文介绍了自然语言处理(NLP)在文本分析中的应用,从被动收集到主动分析的过程。通过Python代码示例,详细展示了文本预处理、特征提取、情感分析和主题建模等关键技术,帮助读者理解如何有效利用NLP工具进行文本数据分析。
33 2
|
14天前
|
JSON 安全 数据安全/隐私保护
深度剖析:Python如何运用OAuth与JWT,为数据加上双保险🔐
【10月更文挑战第10天】本文介绍了OAuth 2.0和JSON Web Tokens (JWT) 两种现代Web应用中最流行的认证机制。通过使用Flask-OAuthlib和PyJWT库,详细展示了如何在Python环境中实现这两种认证方式,从而提升系统的安全性和开发效率。OAuth 2.0适用于授权过程,JWT则简化了认证流程,确保每次请求的安全性。结合两者,可以构建出既安全又高效的认证体系。
33 1
|
23天前
|
JSON 安全 数据安全/隐私保护
深度剖析:Python如何运用OAuth与JWT,为数据加上双保险🔐
【10月更文挑战第2天】当讨论Web应用安全时,认证与授权至关重要。OAuth 2.0 和 JSON Web Tokens (JWT) 是现代Web应用中最流行的两种认证机制。OAuth 2.0 是一种开放标准授权协议,允许资源拥有者授予客户端访问资源的权限,而不需直接暴露凭据。JWT 则是一种紧凑、URL 安全的信息传输方式,自我包含认证信息,无需服务器查询数据库验证用户身份。在 Python 中,Flask-OAuthlib 和 PyJWT 分别用于实现 OAuth 2.0 和 JWT 的功能。结合两者可构建高效且安全的认证体系,提高安全性并简化交互过程,为数据安全提供双重保障。
21 7
|
18天前
|
自然语言处理 搜索推荐 关系型数据库
elasticsearch学习六:学习 全文搜索引擎 elasticsearch的语法,使用kibana进行模拟测试(持续更新学习)
这篇文章是关于Elasticsearch全文搜索引擎的学习指南,涵盖了基本概念、命令风格、索引操作、分词器使用,以及数据的增加、修改、删除和查询等操作。
13 0
elasticsearch学习六:学习 全文搜索引擎 elasticsearch的语法,使用kibana进行模拟测试(持续更新学习)