Cobar使用文档(可用作MySQL大型集群解决方案)

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: 原文:http://blog.csdn.net/shagoo/article/details/8191346项目已经迁移到Git上面,地址为:https://github.com/alibaba/cobar最近好不容易抽空研究了下Cobar,感觉这个产品确实很不错(在文档方面比Amoeba强多了),特此推荐给大家。

原文:http://blog.csdn.net/shagoo/article/details/8191346

项目已经迁移到Git上面,地址为:https://github.com/alibaba/cobar

最近好不容易抽空研究了下Cobar,感觉这个产品确实很不错(在文档方面比Amoeba强多了),特此推荐给大家。Cobar是阿里巴巴研发的关系型数据的分布式处理系统,该产品成功替代了原先基于Oracle的数据存储方案,目前已经接管了3000+个MySQL数据库的schema,平均每天处理近50亿次的SQL执行请求。

首先,使用Cobar的核心功能如下:

分布式:

Cobar的分布式主要是通过将表放入不同的库来实现:
1. Cobar支持将一张表水平拆分成多份分别放入不同的库来实现表的水平拆分
2. Cobar也支持将不同的表放入不同的库
3. 多数情况下,用户会将以上两种方式混合使用
这里需要强调的是,Cobar不支持将一张表,例如test表拆分成test_1, test_2, test_3.....放在同一个库中,必须将拆分后的表分别放入不同的库来实现分布式。

HA:
在用户配置了MySQL心跳的情况下,Cobar可以自动向后端连接的MySQL发送心跳,判断MySQL运行状况,一旦运行出现异常,Cobar可以自动切换到备机工作。但需要强调的是:
1. Cobar的主备切换有两种触发方式,一种是用户手动触发,一种是Cobar的心跳语句检测到异常后自动触发。那么,当心跳检测到主机异常,切换到备机,如果主机恢复了,需要用户手动切回主机工作,Cobar不会在主机恢复时自动切换回主机,除非备机的心跳也返回异常。
2. Cobar只检查MySQL主备异常,不关心主备之间的数据同步,因此用户需要在使用Cobar之前在MySQL主备上配置双向同步,详情可以参阅MySQL参考手册。

其次,我们也需要注意Cobar的功能约束:

1) 不支持跨库情况下的join、分页、排序、子查询操作。
2) SET语句执行会被忽略,事务和字符集设置除外。
3) 分库情况下,insert语句必须包含拆分字段列名。
4) 分库情况下,update语句不能更新拆分字段的值。
5) 不支持SAVEPOINT操作。
6) 暂时只支持MySQL数据节点。
7) 使用JDBC时,不支持rewriteBatchedStatements=true参数设置(默认为false)。
8) 使用JDBC时,不支持useServerPrepStmts=true参数设置(默认为false)。
9) 使用JDBC时,BLOB, BINARY, VARBINARY字段不能使用setBlob()或setBinaryStream()方法设置参数。

然后,我们来分析一下Cobar逻辑层次图:

* dataSource:数据源,表示一个具体的数据库连接,与物理存在的数据库schema一一对应。
* dataNode:数据节点,由主、备数据源,数据源的HA以及连接池共同组成,可以将一个dataNode理解为一个分库。
* table:表,包括拆分表(如tb1,tb2)和非拆分表。
* tableRule:路由规则,用于判断SQL语句被路由到具体哪些datanode执行。
* schema:cobar可以定义包含拆分表的schema(如schema1),也可以定义无拆分表的schema(如schema2)。

Cobar支持的数据库结构(schema)的层次关系具有较强的灵活性,用户可以将表自由放置不同的datanode,也可将不同的datasource放置在同一MySQL实例上。在实际应用中,我们需要通过配置文件(schema.xml)来定义我们需要的数据库服务器和表的分布策略,这点我们将在后面的安装和配置部分中介绍到。

接着,我们来介绍Cobar的安装和配置步骤:

下面我们将使用一个最简单的分库分表的例子来说明Cobar的基本用法,数据库schema如下图(该实例也可参考:Cobar产品首页)。

1) 系统对外提供的数据库名是dbtest,并且其中有两张表tb1和tb2。
2) tb1表的数据被映射到物理数据库dbtest1的tb1上。
3) tb2表的一部分数据被映射到物理数据库dbtest2的tb2上,另外一部分数据被映射到物理数据库dbtest3的tb2上。

1、环境准备

操作系统:Linux或者Windows (推荐在Linux环境下运行Cobar)
MySQL:http://www.mysql.com/downloads/(推荐使用5.1以上版本)
JDK:http://www.oracle.com/technetwork/java/javase/downloads/(推荐使用1.6以上版本)
Cobar:http://code.alibabatech.com/wiki/display/cobar/release/(下载tar.gz或者zip文件)

2、数据准备

假设本文MySQL所在服务器IP为192.168.0.1,端口为3306,用户名为test,密码为空,我们需要创建schema:dbtest1、dbtest2、dbtest3,table:tb1、tb2,SQL如下:

  1. #创建dbtest1
  2. dropdatabaseifexistsdbtest1;
  3. createdatabasedbtest1;
  4. usedbtest1;
  5. #在dbtest1上创建tb1
  6. createtabletb1(
  7. idintnotnull,
  8. gmtdatetime);
  9. #创建dbtest2
  10. dropdatabaseifexistsdbtest2;
  11. createdatabasedbtest2;
  12. usedbtest2;
  13. #在dbtest2上创建tb2
  14. createtabletb2(
  15. idintnotnull,
  16. valvarchar(256));
  17. #创建dbtest3
  18. dropdatabaseifexistsdbtest3;
  19. createdatabasedbtest3;
  20. usedbtest3;
  21. #在dbtest3上创建tb2
  22. createtabletb2(
  23. idintnotnull,
  24. valvarchar(256));

3、配置Cobar

Cobar解压之后有四个目录:
bin/:可执行文件目录,包含启动(start)、关闭(shutdown)和重启(restart)脚本
lib/:逻辑类库目录,包含了Cobar所需的jar包
conf/:配置文件目录,下面会详细介绍
logs/:运行日志目录,最主要的log有两个:程序日志(stdout.log)和控制台输出(console.log)

配置文件的用法如下:
log4j.xml:日志配置,一般来说保持默认即可
schema.xml:定义了schema逻辑层次图中的所有元素,并利用这些元素以及rule.xml中定义的规则组建分布式数据库系统
rule.xml:定义了分库分表的规则
server.xml:系统配置文件

我们在schema.xml中配置数据库结构(schema)、数据节点(dataNode)、以及数据源(dataSource)。
[html] view plain copy
  1. <?xmlversion="1.0"encoding="UTF-8"?>
  2. <!DOCTYPEcobar:schemaSYSTEM"schema.dtd">
  3. <cobar:schemaxmlns:cobar="http://cobar.alibaba.com/">
  4. <!--schema定义-->
  5. <schemaname="dbtest"dataNode="dnTest1">
  6. <tablename="tb2"dataNode="dnTest2,dnTest3"rule="rule1"/>
  7. </schema>
  8. <!--数据节点定义,数据节点由数据源和其他一些参数组织而成。-->
  9. <dataNodename="dnTest1">
  10. <propertyname="dataSource">
  11. <dataSourceRef>dsTest[0]</dataSourceRef>
  12. </property>
  13. </dataNode>
  14. <dataNodename="dnTest2">
  15. <propertyname="dataSource">
  16. <dataSourceRef>dsTest[1]</dataSourceRef>
  17. </property>
  18. </dataNode>
  19. <dataNodename="dnTest3">
  20. <propertyname="dataSource">
  21. <dataSourceRef>dsTest[2]</dataSourceRef>
  22. </property>
  23. </dataNode>
  24. <!--数据源定义,数据源是一个具体的后端数据连接的表示。-->
  25. <dataSourcename="dsTest"type="mysql">
  26. <propertyname="location">
  27. <location>192.168.0.1:3306/dbtest1</location><!--注意:替换为您的MySQLIP和Port-->
  28. <location>192.168.0.1:3306/dbtest2</location><!--注意:替换为您的MySQLIP和Port-->
  29. <location>192.168.0.1:3306/dbtest3</location><!--注意:替换为您的MySQLIP和Port-->
  30. </property>
  31. <propertyname="user">test</property><!--注意:替换为您的MySQL用户名-->
  32. <propertyname="password">test</property><!--注意:替换为您的MySQL密码-->
  33. <propertyname="sqlMode">STRICT_TRANS_TABLES</property>
  34. </dataSource>
  35. </cobar:schema>
我们注意到,上述配置实际上已经把图2中的数据库结构配置好了。dbtest主要映射的是dnTest1库(即192.168.0.1:3306/dbtest1库),而其中的tb2表则是按照规则rule1,被分配到dnTest2库(即192.168.0.1:3306/dbtest2库)和dnTest3库(即192.168.0.1:3306/dbtest3库)中。此外,规则rule1的定义可以在rule.xml中找到,代码如下:
[html] view plain copy
  1. <?xmlversion="1.0"encoding="UTF-8"?>
  2. <!DOCTYPEcobar:ruleSYSTEM"rule.dtd">
  3. <cobar:rulexmlns:cobar="http://cobar.alibaba.com/">
  4. <!--路由规则定义,定义什么表,什么字段,采用什么路由算法。-->
  5. <tableRulename="rule1">
  6. <rule>
  7. <columns>id</columns>
  8. <algorithm><![CDATA[func1(${id})]]></algorithm>
  9. </rule>
  10. </tableRule>
  11. <!--路由函数定义,应用在路由规则的算法定义中,路由函数可以自定义扩展。-->
  12. <functionname="func1"class="com.alibaba.cobar.route.function.PartitionByLong">
  13. <propertyname="partitionCount">2</property>
  14. <propertyname="partitionLength">512</property>
  15. </function>
  16. </cobar:rule>
结合schema.xml中的内容,我们可以看出分表的规则是,按照id字段把tb2表中的数据分配到dnTest2和dnTest3两个分区中,其中id小于512的数据会被放到dnTest2库的分区中,而其余的会被放到dnTest3库的分区中,更多路由算法可以参考《 路由文档 》。最后,我们来看一下server.xml的配置,代码如下。
[html] view plain copy
  1. <?xmlversion="1.0"encoding="UTF-8"?>
  2. <!DOCTYPEcobar:serverSYSTEM"server.dtd">
  3. <cobar:serverxmlns:cobar="http://cobar.alibaba.com/">
  4. <!--定义Cobar用户名,密码-->
  5. <username="root">
  6. <propertyname="password">passwd</property>
  7. <propertyname="schemas">dbtest</property>
  8. </user>
  9. </cobar:server>
这里的server.xml配置比较简单,只配置了本地Cobar服务的数据库结构、用户名和密码。在启动Cobar服务之后,使用用户名root和密码passwd就可以登录Cobar服务。

4、运行Cobar

启动Cobar服务很简单,运用bin目录下的start.sh即可(停止使用shutdown.sh)。启动成功之后,可以在logs目录下的stdout.log中看到如下日志:
[html] view plain copy
  1. 10:54:19,264INFO===============================================
  2. 10:54:19,265INFOCobarisreadytostartup...
  3. 10:54:19,265INFOStartupprocessors...
  4. 10:54:19,443INFOStartupconnector...
  5. 10:54:19,446INFOInitializedataNodes...
  6. 10:54:19,470INFOdnTest1:0initsuccess
  7. 10:54:19,472INFOdnTest3:0initsuccess
  8. 10:54:19,473INFOdnTest2:0initsuccess
  9. 10:54:19,481INFOCobarManagerisstartedandlisteningon9066
  10. 10:54:19,483INFOCobarServerisstartedandlisteningon8066
  11. 10:54:19,484INFO===============================================

接着,我们就可以使用“mysql -h127.0.0.1 -uroot -ppasswd -P8066 -Ddbtest”命令来登录Cobar服务了,再接下来的操作就和在其他MySQL Client中一样了。比如,我们可以使用“show databases”命令查看数据库,使用“show tables”命令查看数据表,如下图:

接着,我们按照下图中的SQL指定向数据表插入测试记录。

可以看到,这里的tb2中包含了id为1、2、513的3条记录。而实际上,这3条记录存储在不同的物理数据库上的,大家可以到物理库上验证一下。

至于Cobar的连接和使用方法和MySQL一样,Java程序中可以使用JDBC(建议5.1以上的版本),PHP中可以使用PDO。当然,Cobar还提供HA、集群等高级的功能,更多信息请参考其《 产品文档 。此外,产品文档中还为我们提供了详细的PPT文档《Cobar原理及应用.ppt》来介绍Cobar在实际生产环境中的使用方法,真可谓之用心良苦啊!

此外,特别解释一下大家可能比较关心的心跳检测问题,Cobar的心跳检测主要用在以下两个地方。

1、在配置数据节点的时候,我们需要使用心跳检测来探测数据节点的运行状况。Cobar中使用执行SQL的方式来进行探测,简单且实用。例如,我们可以把前面实例中的schema.xml中的dataNode配置成下面的样子。
[html] view plain copy
  1. ......
  2. <!--数据节点定义,数据节点由数据源和其他一些参数组织而成。-->
  3. <dataNodename="dnTest1">
  4. <propertyname="dataSource">
  5. <dataSourceRef>dsTest[0]</dataSourceRef>
  6. </property>
  7. <!--Cobar与后端数据源连接池大小设置-->
  8. <propertyname="poolSize">256</property>
  9. <!--Cobar通过心跳来实现后端数据源HA,一旦主数据源心跳失败,便切换到备数据源上工作-->
  10. <!--Cobar心跳是通过向后端数据源执行一条SQL语句,根据该语句的返回结果判断数据源的运行情况-->
  11. <propertyname="heartbeat">selectuser()<property>
  12. </dataNode>
  13. ......
2、当我们需要对Cobar作集群(cluster),进行负载均衡的时候,我们也需要用到心跳机制。不过此处的配置则是在server.xml中,代码如下:
[html] view plain copy
  1. ......
  2. <!--组建一个Cobar集群,只需在cluster配置中把所有Cobar节点(注意:包括当前Cobar自身)都配置上便可-->
  3. <cluster>
  4. <!--node名称,一个node表示一个Cobar节点,一旦配置了node,当前Cobar便会向此节点定期发起心跳,探测节点的运行情况-->
  5. <nodename="cobar1">
  6. <!--Cobar节点IP,表示当前Cobar将会向192.168.0.1上部署的Cobar发送心跳-->
  7. <propertyname="host">192.168.0.1</property>
  8. <!--节点的权重,用于客户端的负载均衡,用户可以通过命令查询某个节点的运行情况以及权重-->
  9. <propertyname="weight">1</property>
  10. </node>
  11. <!--当前Cobar将会向192.168.0.2上部署的Cobar发送心跳-->
  12. <nodename="cobar2">
  13. <propertyname="host">192.168.0.2</property>
  14. <propertyname="weight">2</property>
  15. </node>
  16. <!--当前Cobar将会向192.168.0.3上部署的Cobar发送心跳-->
  17. <nodename="cobar3">
  18. <propertyname="host">192.168.0.3</property>
  19. <propertyname="weight">3</property>
  20. </node>
  21. <!--用户还可以将Cobar节点分组,以便实现schema级别的细粒度负载均衡-->
  22. <groupname="group12">
  23. <propertyname="nodeList">cobar1,cobar2</property>
  24. </group>
  25. <groupname="group23">
  26. <propertyname="nodeList">cobar2,cobar3</property>
  27. </group>
  28. </cluster>
  29. ......

最后,简单看一下Cobar的实现原理。

首先是系统模块架构。

从上图中可以看到,Cobar的前、后端模块都实现了MySQL协议;当接受到SQL请求时,会依次进行解释(SQL Parser)和路由(SQL Router)工作,然后使用SQL Executor去后端模块获取数据集(后端模块还负责心跳检测功能);如果数据集来自多个数据源,Cobar则需要把数据集进行组合(Result Merge),最后返回响应。整个过程应该比较容易理解,

下面是Cobar的网络通讯模块架构。

从上图中可以看出,Cobar采用了主流的Reactor设计模式来处理请求,并使用NIO进行底层的数据交换,这大大提升系统的负载能力。其中,NIOAcceptor用于处理前端请求,NIOConnector则用于管理后端的连接,NIOProcessor用于管理多线程事件处理,NIOReactor则用于完成底层的事件驱动机制,就是看起来和Mina和Netty的网络模型比较相似。如果有兴趣,大家还可以到Cobar站点的下载页面(http://code.alibabatech.com/wiki/display/cobar/release)获取该项目的源码,真是太周到了,让我们为富有开源精神的阿里人掌声鼓励一下!

项目已经迁移到Git上面,地址为:https://github.com/alibaba/cobar

相关实践学习
如何在云端创建MySQL数据库
开始实验后,系统会自动创建一台自建MySQL的 源数据库 ECS 实例和一台 目标数据库 RDS。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
1月前
|
关系型数据库 MySQL Java
【IDEA】java后台操作mysql数据库驱动常见错误解决方案
【IDEA】java后台操作mysql数据库驱动常见错误解决方案
67 0
|
1月前
|
分布式计算 关系型数据库 MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
50 3
|
1月前
|
消息中间件 分布式计算 关系型数据库
大数据-140 - ClickHouse 集群 表引擎详解5 - MergeTree CollapsingMergeTree 与其他数据源 HDFS MySQL
大数据-140 - ClickHouse 集群 表引擎详解5 - MergeTree CollapsingMergeTree 与其他数据源 HDFS MySQL
46 0
|
11天前
|
监控 关系型数据库 MySQL
MySQL自增ID耗尽应对策略:技术解决方案全解析
在数据库管理中,MySQL的自增ID(AUTO_INCREMENT)属性为表中的每一行提供了一个唯一的标识符。然而,当自增ID达到其最大值时,如何处理这一情况成为了数据库管理员和开发者必须面对的问题。本文将探讨MySQL自增ID耗尽的原因、影响以及有效的应对策略。
37 3
|
11天前
|
存储 监控 关系型数据库
MySQL自增ID耗尽解决方案:应对策略与实践技巧
在MySQL数据库中,自增ID(AUTO_INCREMENT)是一种特殊的属性,用于自动为新插入的行生成唯一的标识符。然而,当自增ID达到其最大值时,会发生什么?又该如何解决?本文将探讨MySQL自增ID耗尽的问题,并提供一些实用的解决方案。
19 1
|
26天前
|
关系型数据库 MySQL 数据库
一个 MySQL 数据库死锁的案例和解决方案
本文介绍了一个 MySQL 数据库死锁的案例和解决方案。
53 3
|
1月前
|
SQL 关系型数据库 MySQL
MySQL中的 where 1=1会不会影响性能?看完官方文档就悟了!
本文探讨了在Mybatis中使用`where 1=1`进行动态SQL拼接是否会影响性能。通过MySQL官方资料和实际测试表明,`where 1=1`在MySQL 5.7及以上版本中会被优化器优化,因此对性能影响不大。文中详细对比了`where 1=1`与`&lt;where&gt;`标签的使用方法,并建议根据MySQL版本和团队需求选择合适的方式。最后,推荐查找官方资料以确保技术路线正确。
42 4
|
2月前
|
关系型数据库 MySQL
mysql 官网文档
mysql官网使用指南
mysql 官网文档
|
2月前
|
存储 Java 关系型数据库
JPA不识别MySQL枚举类型的解决方案
在JPA中处理MySQL的枚举类型,需要在实体类与数据库之间进行适当的转换。可以选择使用 `@Enumerated`注解、实现自定义的转换器,或者使用原生SQL查询来解决JPA不直接支持MySQL枚举类型的问题。选择最佳方案时,应考虑项目的具体需求和架构。通过正确的映射和转换,可以确保JPA与MySQL数据库间高效且安全的数据交互。
76 6
|
1月前
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
86 0
下一篇
无影云桌面