Kylin使用心得与实战经验分享

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
日志服务 SLS,月写入数据量 50GB 1个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 本文详细介绍了Apache Kylin的使用方法及其在大数据分析中的优势。首先,Kylin是一款基于Hadoop和Spark的开源分布式分析引擎,通过预计算技术实现亚秒级的交互式查询响应,大幅提高数据分析效率。接着,文章阐述了Kylin的核心特点,包括高效多维分析能力和预计算与实时查询的平衡。然后,详细说明了环境搭建、配置步骤及示例代码,展示了如何配置HBase存储后端。在数据建模与优化部分,讲解了星型模型和雪花模型的选择,以及分区策略和索引优化技巧。

  image.gif 编辑

目录

一、引言

1.1 简述Kylin的基本概念及作用

1.2 个人使用Kylin的初衷和背景

二、Kylin基础介绍

2.1 Kylin的核心特点

2.2 Kylin架构概览

三、环境搭建与配置

3.1 安装与部署Kylin

3.2 示例代码:配置Kylin的HBase存储后端

四、数据建模与优化

4.1 数据模型设计原则

4.2 优化技巧

五、数据加载与查询

5.1 数据加载流程

5.2 使用SQL查询Kylin数据

5.3 示例代码:加载数据并执行查询

六、性能调优与监控

6.1 性能调优策略

6.2 监控与日志分析

6.3 性能调优

七、实战案例分享

1. 准备数据

2. 使用Kylin进行数据分析

示例查询:

3. 生成销售数据分析报告

a. 总销售额

b. 各产品销售额分布

c. 各月销售额趋势

4. 报告输出

示例代码(Python使用matplotlib生成图表):

八、总结与展望

Kylin使用心得与体会

遇到的挑战与解决方案

对Kylin未来发展的期待与建议


一、引言

1.1 简述Kylin的基本概念及作用

Apache Kylin是一个开源的分布式分析引擎,专为Hadoop、Spark等大数据平台设计。它提供了SQL查询接口以及多维分析(OLAP)能力,特别支持超大规模数据集的处理。Kylin通过预计算技术,能够实现亚秒级的交互式查询响应,极大地提高了数据分析的效率。此外,Kylin还提供了丰富的API以供与现有的BI工具集成,如Tableau、Excel、Power BI等,使得数据分析更加便捷和直观。

1.2 个人使用Kylin的初衷和背景

image.gif 编辑

  • 初衷
  1. 高效查询:我最初选择使用Kylin,主要是因为它能够实现亚秒级的查询响应。在处理大数据集时,传统的查询工具往往需要较长时间才能返回结果,而Kylin通过预计算技术大大缩短了查询时间,提高了工作效率。
  2. 支持超大数据集:Kylin对大数据的支撑能力强大,可以处理TB乃至PB级别的数据。这对于需要分析海量数据的我来说,是一个非常重要的特点。
  3. 易于集成:Kylin提供了丰富的API和接口,可以方便地与现有的BI工具进行集成。这使得我能够利用熟悉的工具进行数据分析和可视化,降低了学习成本。
  • 背景
    在工作中,我经常需要处理大量的数据,并进行复杂的数据分析。传统的数据处理工具在满足高效查询和大数据处理方面存在一定的局限性。因此,我一直在寻找一种能够更高效、更便捷地处理大数据的分析工具。在了解到Kylin的特点和优势后,我决定尝试使用它来处理我的数据分析任务。通过实际使用,我发现Kylin确实能够大大提高数据查询和分析的效率,为我节省了大量时间。

二、Kylin基础介绍

2.1 Kylin的核心特点

  • 分布式分析引擎:Kylin是一个基于Hadoop/Spark等分布式计算平台的分析引擎,能够充分利用集群的计算资源,实现大规模数据的并行处理。
  • 高效的多维分析能力:Kylin支持多维数据分析,用户可以轻松地对数据进行切片、切块、汇总等操作。这种能力在处理复杂的数据分析任务时非常有用,能够帮助用户从多个角度审视数据,发现其中的规律和趋势。
  • 预计算与实时查询的平衡:Kylin采用了预计算技术,通过在离线阶段对数据进行预处理和计算,生成多维数据立方体(Cube)。这使得在实时查询阶段能够迅速返回结果,实现了预计算与实时查询之间的平衡。这种平衡既保证了查询效率,又满足了用户对实时性的需求。

2.2 Kylin架构概览

Kylin的架构主要包含以下几个组件:

  • 数据源层:Kylin可以接入多种不同类型的数据源,包括Hive、HBase、Parquet等,以及第三方数据源如MySQL、Oracle等。这一层负责从原始数据源中抽取数据,为后续的存储和计算提供基础。
  • 存储层:Kylin使用HBase作为主要的存储引擎,利用HBase的列式存储特性来高效地存储多维数据立方体(Cube)。此外,Kylin还支持其他存储引擎的接入,以满足不同的存储需求。
  • 计算层:计算层是Kylin架构的核心部分,它负责执行数据转换、聚合等操作,并生成多维数据立方体(Cube)。这一过程是通过MapReduce等分布式计算框架来实现的,能够充分利用集群的计算资源,提高处理效率。
  • 查询层:查询层提供了多维查询引擎,支持类SQL的多维查询语言(OLAP SQL),以及多种查询优化技术。用户可以通过标准的SQL接口来查询数据,查询引擎会解析SQL语句并将其转换为对多维数据立方体(Cube)的查询操作,从而快速返回查询结果。此外,Kylin还提供了丰富的API以供与现有的BI工具集成,使得用户能够更加方便地进行数据分析和可视化操作。

三、环境搭建与配置

3.1 安装与部署Kylin

在安装与部署Kylin之前,需要确保满足一些前提条件和安装必要的依赖。以下是一个基本的步骤指南:

  • 前提条件与依赖安装
  1. 安装Java环境:确保已安装Java运行环境(JRE)或Java开发工具包(JDK),版本需与Kylin兼容。
  2. 安装Hadoop:Kylin是基于Hadoop构建的,因此需要预先安装和配置好Hadoop集群。
  3. (可选)安装其他依赖:根据需求,可能还需要安装如HBase、Spark等其他组件。
  • 下载与安装Kylin
  1. 访问Apache Kylin官方网站或GitHub仓库,下载最新版本的Kylin安装包。
  2. 解压安装包到指定目录,例如/opt/kylin
  • 配置环境变量及集群设置
  1. 设置环境变量:将Kylin的bin目录添加到PATH环境变量中,以便在终端中直接运行Kylin命令。
  2. 配置Kylin属性:编辑Kylin的配置文件(如kylin.properties),根据集群环境和需求进行相应的设置,如Hadoop和HBase的配置、存储路径等。
  3. (可选)集群设置:如果Kylin部署在集群环境中,还需要配置集群的相关参数,如节点信息、负载均衡等。

3.2 示例代码:配置Kylin的HBase存储后端

image.gif 编辑

配置Kylin的HBase存储后端需要编辑Kylin的配置文件,并设置与HBase相关的配置项。以下是一个示例步骤:

  1. 打开Kylin的配置文件kylin.properties
  2. 找到与HBase相关的配置项,这些配置项通常以kylin.storage.hbase为前缀。例如:
  • kylin.storage.hbase.cluster-fs:HBase在HDFS上的存储路径。
  • kylin.storage.hbase.table-name:用于存储Kylin数据的HBase表名。
  • kylin.storage.hbase.hbase-table-default-namespace:HBase表的默认命名空间。
  1. 根据实际的HBase集群配置,设置上述配置项的值。例如:
  • kylin.storage.hbase.cluster-fs=hdfs://namenode:8020/hbase
  • kylin.storage.hbase.table-name=kylin_metadata
  • kylin.storage.hbase.hbase-table-default-namespace=default
  1. 保存并关闭配置文件。
  2. 重启Kylin服务以使配置生效

上述示例中的配置项和值可能因实际情况而异,具体取决于你的HBase集群配置和命名约定。务必参考你的HBase和Kylin文档以确保正确配置。

四、数据建模与优化

4.1 数据模型设计原则

在设计数据模型时,需要遵循一些原则以确保模型的效率和易用性。其中,选择适当的模型类型(如星型模型或雪花模型)和合理设计维度表与事实表的关联是关键。

  • 星型模型与雪花模型的选择
  • 星型模型:在星型模型中,数据被组织成事实表和维度表。事实表包含业务过程的度量值,而维度表包含描述业务过程的文本信息。星型模型相对简单,查询性能较好,但可能存在数据冗余。
  • 雪花模型:雪花模型是星型模型的扩展,其中维度表被进一步规范化,分解为多个相关表。这减少了数据冗余,但可能增加查询的复杂性。
  • 维度表与事实表的关联设计
  • 确保维度表和事实表之间通过主键和外键正确关联。
  • 设计适当的维度属性以支持业务分析需求。

4.2 优化技巧

为了提高查询性能和响应时间,可以采取以下优化技巧:

  • 合理选择预计算列:根据查询需求,选择需要进行预计算的列,以减少实时计算的开销。
  • 分区策略与剪枝优化:通过对数据进行合理分区,可以提高查询性能。同时,利用剪枝技术排除无关分区,进一步减少查询范围。
  • 索引优化:为常用查询列和连接键创建索引,以加速查询过程。但需要注意索引的维护成本和对写入性能的影响。

4.3 示例代码:创建一个简单的数据模型

以下是一个简单的数据模型创建示例,假设我们使用SQL语言进行操作:

-- 创建事实表  
CREATE TABLE sales_fact (  
    sale_id INT PRIMARY KEY,  
    product_id INT,  
    customer_id INT,  
    sale_date DATE,  
    amount DECIMAL(10, 2)  
);  
  
-- 创建维度表:产品表  
CREATE TABLE product_dimension (  
    product_id INT PRIMARY KEY,  
    product_name VARCHAR(255),  
    category VARCHAR(255)  
);  
  
-- 创建维度表:客户表  
CREATE TABLE customer_dimension (  
    customer_id INT PRIMARY KEY,  
    customer_name VARCHAR(255),  
    email VARCHAR(255)  
);  
  
-- 创建维度表:时间表(用于日期维度)  
CREATE TABLE time_dimension (  
    date DATE PRIMARY KEY,  
    day_of_week VARCHAR(50),  
    month VARCHAR(50),  
    year INT  
);

image.gif

在这个示例中,我们创建了一个销售事实表(sales_fact)和三个维度表(产品、客户和时间)。这些表通过主键和外键进行关联,以支持多维数据分析。

五、数据加载与查询

5.1 数据加载流程

在将数据加载到Kylin之前,通常需要经过几个关键步骤来确保数据的准确性和一致性。以下是数据加载的基本流程:

  • 从数据源抽取数据
    根据业务需求,从原始数据源(如关系型数据库、NoSQL数据库、数据文件等)中抽取所需的数据。
  • 数据转换与清洗
    在数据被加载到Kylin之前,可能需要进行一系列的数据转换和清洗操作,包括格式转换、空值处理、异常值处理、重复数据删除等,以确保数据的质量和准确性。
  • 加载数据到Kylin
    经过转换和清洗后的数据可以通过Kylin提供的数据加载工具或API加载到Kylin中,准备进行多维分析。

5.2 使用SQL查询Kylin数据

Kylin支持SQL查询语言,使用户能够轻松地查询和分析数据。以下是一些基本的SQL查询操作:

  • 基本查询语法
    使用SELECT语句来查询数据,例如:SELECT column1, column2 FROM table_name;
  • 聚合函数与分组操作
    可以使用聚合函数对数据进行汇总,如SUM(), AVG(), COUNT()等,并结合GROUP BY进行分组操作。例如:SELECT column1, SUM(column2) FROM table_name GROUP BY column1;
  • 过滤与排序
    使用WHERE子句对数据进行过滤,使用ORDER BY对数据进行排序。例如:SELECT column1, column2 FROM table_name WHERE column3 > 10 ORDER BY column2 DESC;

5.3 示例代码:加载数据并执行查询

假设我们有一个名为sales的CSV文件,包含销售数据,并且我们已经创建了相应的数据模型。以下是一个简化的示例流程,展示如何加载数据并执行查询:

  1. 加载数据
    首先,我们需要将数据从CSV文件加载到Kylin中。这通常涉及使用Kylin的数据导入工具或通过API进行。以下是一个假设的命令行示例(具体命令可能因Kylin版本和配置而异):
# 假设kylin.sh是Kylin的命令行工具  
./kylin.sh job submit --job-type hadoop --job-name "Load Sales Data" --job-conf ./path/to/load_sales_data.json
  1. image.gif 其中load_sales_data.json是包含加载详细信息的配置文件。
  2. 执行查询
    一旦数据被加载到Kylin中,我们就可以使用SQL来查询它。以下是一个简单的查询示例,假设我们已经通过Kylin的查询接口(可能是Web界面、REST API或其他客户端):
SELECT product, SUM(sales_amount) AS total_sales  
FROM sales_cube  
WHERE year = 2023  
GROUP BY product  
ORDER BY total_sales DESC;
  1. image.gif 这个查询将从名为sales_cube的多维数据集中检索每种产品在2023年的总销售额,并按销售额降序排列。请注意,实际的表名、立方体名和列名将根据您的具体设置而有所不同。

六、性能调优与监控

6.1 性能调优策略

性能调优是确保Kylin高效运行的关键环节,以下是一些调优策略:

  • 调整内存与计算资源
  • 根据集群规模和查询负载,适当增加Kylin集群的内存配置,以提高数据处理和缓存能力。
  • 优化CPU使用,确保Kylin进程能够充分利用可用的计算资源。
  • 优化数据存储与查询性能
  • 设计合理的Cube结构,选择适当的维度和度量,减少数据冗余和计算复杂度。
  • 使用分区技术将数据分成逻辑部分,以提高查询性能并减少扫描的数据量。
  • 利用Kylin的缓存功能,将频繁查询的数据缓存到内存中,加速查询响应。
  • 并发控制与任务调度
  • 调整并发查询数,避免过多的并发请求导致资源争抢和性能下降。
  • 优化任务调度策略,确保重要或资源密集型的任务能够优先执行。

6.2 监控与日志分析

为了有效监控Kylin的性能并进行故障排除,可以采取以下措施:

  • 使用Kylin自带的监控工具
  • 利用Kylin提供的REST API或监控界面查看集群的运行状态,包括节点负载、内存使用情况等。
  • 实时监控查询性能和系统资源利用率,以便及时发现并解决性能瓶颈。
  • 分析查询性能瓶颈
  • 通过分析查询执行计划和性能统计信息,识别慢查询和性能瓶颈。
  • 使用Profile功能深入了解查询的详细执行过程,优化查询逻辑。
  • 日志文件的解读与故障排除
  • 定期查看和分析Kylin的日志文件,了解系统的运行情况和潜在问题。
  • 根据日志中的错误信息或异常提示,快速定位并排除故障。

6.3 性能调优

假设我们面临一个性能瓶颈,即某些复杂查询的响应时间过长。为了优化性能,我们可以采取以下步骤:

  1. 分析查询性能
  • 使用Kylin的监控工具分析查询性能,发现某些查询涉及大量数据的聚合计算,导致响应时间延长。
  1. 优化Cube设计
  • 重新设计Cube结构,选择更合适的维度和度量组合,减少计算复杂度。
  • 考虑使用更精细的分区策略,以便查询时能够扫描更少的数据。
  1. 利用缓存功能
  • 将频繁查询且计算结果不经常变化的数据缓存到内存中,以减少计算量并加速查询响应。
  1. 调整并发控制
  • 限制并发查询的数量,避免资源过度争抢导致的性能下降。
  1. 监控与验证
  • 在应用上述优化措施后,持续监控系统的性能指标,如查询响应时间、CPU利用率和内存使用情况等。
  • 通过对比优化前后的性能数据,验证优化措施的有效性。

通过以上实战案例,我们可以看到性能调优是一个持续的过程,需要不断地分析、调整和优化。

七、实战案例分享

以下是一个简单的销售数据分析报告的实战案例。我们将使用Kylin来分析销售数据,并生成一份报告,以图形化的方式展示销售情况。

1. 准备数据

假设我们已经有一个销售数据的Cube,它包含了销售记录,包括产品ID、销售日期、销售额等信息。

2. 使用Kylin进行数据分析

我们将使用Kylin的SQL查询功能来提取数据,并使用这些数据来生成报告。

示例查询:

-- 查询总销售额  
SELECT SUM(sales_amount) AS total_sales FROM sales_cube;  
  
-- 查询各产品销售额  
SELECT product_id, SUM(sales_amount) AS product_sales FROM sales_cube GROUP BY product_id;  
  
-- 查询各月销售额  
SELECT MONTH(sale_date) AS sale_month, SUM(sales_amount) AS monthly_sales FROM sales_cube GROUP BY MONTH(sale_date);

image.gif

3. 生成销售数据分析报告

使用查询结果,我们可以生成一个简单的销售数据分析报告,报告中可以包含以下图表:

a. 总销售额

展示一个时间段内的总销售额,可以使用一个简单的数字或者条形图来表示。

b. 各产品销售额分布

使用柱状图展示各个产品的销售额分布情况,这样可以直观地看到哪些产品是畅销品。

c. 各月销售额趋势

使用折线图或者柱状图展示各个月的销售额,以便分析销售趋势和季节性变化。

4. 报告输出

将报告以PDF、PPT或者网页的形式输出,分享给相关团队成员或者管理层。报告中可以包含数据图表、分析结论以及建议措施。

示例代码(Python使用matplotlib生成图表):

import matplotlib.pyplot as plt  
import pandas as pd  
# 假设你已经从Kylin获取了数据,并将其存储在了Pandas DataFrame中  
  
# 数据示例,实际应从Kylin查询结果中获取  
data = {  
    'product_id': ['A', 'B', 'C', 'D'],  
    'sales_amount': [10000, 15000, 8000, 12000]  
}  
df = pd.DataFrame(data)  
  
# 生成产品销售额分布图  
plt.figure(figsize=(10, 6))  
plt.bar(df['product_id'], df['sales_amount'])  
plt.xlabel('Product ID')  
plt.ylabel('Sales Amount')  
plt.title('Sales Distribution by Product')  
plt.show()

image.gif

这段代码使用matplotlib库生成了一个简单的柱状图,展示了各产品的销售额分布。在实际应用中,你需要根据从Kylin中查询到的数据来生成图表,并可以根据需要添加更多的图表和分析内容。

八、总结与展望

Kylin使用心得与体会

在使用Kylin的过程中,我深刻体会到了其作为一款开源的分布式分析引擎的强大功能。首先,Kylin的预计算机制使得大数据量下的查询速度得到了显著提升,这在传统的数据处理方式中是很难实现的。通过预计算生成多维数据集(Cube),Kylin能够在亚秒级响应复杂的多维分析查询,大大提高了数据分析的效率。

其次,Kylin的架构设计和扩展性给我留下了深刻印象。它能够轻松应对数据量的增长,无论是增加节点还是扩展存储容量,都可以在不中断服务的情况下进行,这对于需要持续运行的大数据环境来说是非常重要的。

最后,Kylin的社区支持和文档完善程度也让我感到满意。在遇到问题时,我可以通过查阅官方文档或者在社区中寻求帮助来快速解决问题。

遇到的挑战与解决方案

在使用Kylin的过程中,我也遇到了一些挑战。例如,在初始配置和部署时,由于对环境的要求较高,需要仔细调整各项参数以确保系统的稳定运行。此外,在处理复杂查询时,有时会出现性能瓶颈,需要进一步优化Cube设计和查询语句。

为了解决这些问题,我采取了以下措施:

  1. 深入学习Kylin的官方文档和社区资源:通过仔细阅读文档和参与社区讨论,我更好地理解了Kylin的工作原理和最佳实践,从而更有效地进行系统配置和优化。
  2. 与团队紧密协作:我们团队中的成员具有不同的专业背景和技能,通过集思广益和共同努力,我们成功地解决了许多技术难题。
  3. 持续监控和调整系统性能:我定期使用Kylin自带的监控工具检查系统的运行状态,并根据实际情况调整资源分配和查询策略。

对Kylin未来发展的期待与建议

随着大数据技术的不断发展,我对Kylin的未来充满期待。以下是我对Kylin未来发展的一些建议:

  1. 增强实时分析能力:虽然Kylin已经具备了强大的离线分析能力,但在实时数据分析方面还有提升空间。未来可以考虑增加对实时数据流的支持,以满足更多场景下的数据分析需求。
  2. 优化资源管理和调度机制:随着数据量和查询复杂度的增加,如何更有效地管理和调度资源成为了一个重要问题。希望Kylin能够在未来的版本中进一步优化其资源管理和调度算法,提高系统的整体性能和稳定性。
  3. 丰富数据可视化功能:虽然Kylin本身提供了基本的查询结果展示功能,但在数据可视化方面还有很大的拓展空间。可以考虑集成更多的可视化工具和库,为用户提供更丰富、更直观的数据展示方式。
  4. 加强云原生支持:随着云原生技术的普及和发展,越来越多的企业和组织开始将其应用部署到云平台上。希望Kylin能够进一步加强对云原生环境的支持,为用户提供更加便捷、高效的云服务体验。

image.gif 编辑

相关实践学习
lindorm多模间数据无缝流转
展现了Lindorm多模融合能力——用kafka API写入,无缝流转在各引擎内进行数据存储和计算的实验。
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
运维 Oracle 关系型数据库
免费下载! 《OceanBase 社区版入门到实战》 快人一步,成为游刃有余的分布式数据库专家!
原生分布式关系型数据库OceanBase ,具备多租户、高可用、水平扩展、高性能、低成本、兼容 ORACLE 和 MySQL 六大特点,支撑了支付宝和网商银行全部的核心业务,以及外部银行、保险、证券、运营商、央企等多个行业数百家客户的核心业务系统。OceanBase 在 2021年6月份发布了社区版 3.1,更全面有力的推动数据库生态系统建设。
104257 1
免费下载! 《OceanBase 社区版入门到实战》 快人一步,成为游刃有余的分布式数据库专家!
|
2月前
|
设计模式 前端开发 开发者
个人开源项目商业化经验分享
开源项目推向商业化道路的开发者,将自的经历分享出来与诸位一同交流,期望大家能够少走弯路,让开源项目更健康的活下去。
个人开源项目商业化经验分享
|
3月前
|
运维 知识图谱 Python
专为运维工程师设计!阿里藏经阁出品的Python实战手册被我搞来了
Python 可能是极少数既简单又强大的编程语言中的一种。更重要的是,用它来编程是非常快乐的事。 今天给小伙伴们分享的是阿里“藏经阁”出品的专门给运维工程师设计的Python实战手册
|
5月前
|
SQL 存储 分布式计算
Kylin使用心得:从入门到进阶的探索之旅
【5月更文挑战第2天】Apache Kylin是开源大数据分析平台,提供亚秒级OLAP查询。本文深入解析Kylin的工作原理,包括预计算模型Cube、构建过程和查询引擎。常见问题涉及Cube设计、查询性能和资源管理,解决方案涵盖合理设计、性能监控和测试验证。文中还分享了Cube创建的JSON示例,并探讨了Cube构建优化、查询优化、与其他组件集成、监控维护及生产环境问题解决。通过学习和实践,读者能有效提升数据洞察力和决策效率。
295 5
|
5月前
|
SQL 分布式计算 数据挖掘
Kylin使用心得
Kylin使用心得
47 0
|
数据挖掘 大数据 Apache
行业实践专栏上线|互娱领域专家解读 Flink 企业应用实践
Flink-learning 学训平台第 3 期课程——互娱行业实践专栏上线啦!
482 0
|
消息中间件 运维 Kafka
呕心沥血20万字《Kafka运维与实战宝典》免费开放下载了
呕心沥血20万字《Kafka运维与实战宝典》免费开放下载了
|
SQL 存储 运维
免费下载!冰河力作——《MySQL 技术大全:开发、优化与运维实战》重磅登场!
MySQL 具有小巧、灵活和免费等特性,这使得它越来越多地被用于企业的实际开发中。 特别是 MySQL 数据库的开源特性,更使它得到了广泛应用。
免费下载!冰河力作——《MySQL 技术大全:开发、优化与运维实战》重磅登场!
|
SQL 弹性计算 分布式计算
【有奖调研】E-MapReduce 易用性有奖调研
为深刻理解您的需求,提升 EMR 产品与服务能力。阿里云 EMR 团队诚邀您参加 EMR 易用性调研。我们会认真评估您提出的每一条建议,并从中筛选出优质回复回赠精美礼品。
229 0
【有奖调研】E-MapReduce 易用性有奖调研
|
存储 数据采集 弹性计算
冬季实战营第五期学习报告2:使用阿里云Elasticsearch快速搭建智能运维系统
通过创建登录阿里云Elasticsearch集群,使用Beats采集器收集ECS上的系统数据和Nginx服务数据,配置基础的指标分析看板,简单展示数据采集、分析的过程和操作方式。