drbd数据同步实施方法

简介:

两台机器的环境:

data-1-1   eth0 10.0.0.7    eth1 172.16.1.7   eth2 10.0.10.7

data-1-2   eth0 10.0.0.8    eth1 172.16.1.8   eth2 10.0.10.8


[root@data-1-2 ~]# cat /etc/hosts

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4

::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

10.0.10.7    data-1-1

10.0.10.8    data-1-2


挂两块磁盘到虚拟机上面,其中主drbd上面需要2G空间,辅drbd上面需要3G空间

对磁盘进行格式化和分区:

主:

df -Th

fdisk -l

parted /dev/sdb mklabel gpt yes

parted /dev/sdb mkpart primary ext4 0 1000 ignore

parted /dev/sdb mkpart primary ext4 1001 2000 Yes ignore

parted /dev/sdb p

mkfs.ext4 /dev/sdb1

tune2fs -c -1 /dev/sdb1


辅:

df -Th

fdisk -l

parted /dev/sdb mklabel gpt yes

parted /dev/sdb mkpart primary ext4 0 2000 ignore

parted /dev/sdb mkpart primary ext4 2001 3000 Yes ignore

parted /dev/sdb p

mkfs.ext4 /dev/sdb1

tune2fs -c -1 /dev/sdb1


两台机器上面需要同时做如下操作:

cd /usr/local/src

wget -q  http://elrepo.org/elrepo-release-6-5.el6.elrepo.noarch.rpm

rpm -ivh elrepo-release-6-5.el6.elrepo.noarch.rpm



安装drbd所需要的软件

yum install drbd kmod-drbd84 -y

rpm -qa|grep drbd

lsmod |grep drbd

modprobe drbd

lsmod |grep drbd

echo "modprobe drbd"  > /etc/sysconfig/modules/drbd.modules

chmod 755 /etc/sysconfig/modules/drbd.modules

tail -1  /etc/sysconfig/modules/drbd.modules


drbd公用的配置文件(简化版):

[root@data-1-1 data]# cat /etc/drbd.conf    

global {

    usage-count no;

}


common {

  syncer { 

   rate 100M; 

verify-alg crc32c;

  }

}


# primary for drbd1

resource data {

  protocol C;

########################################如果需要做双主模式的drbd,则需要加如下几行############################################################

net {

    allow-two-primaries;

}


startup {

    become-primary-on both;

}

########################################如果需要做双主模式的drbd,则需要加如上几行############################################################

  disk {

    on-io-error   detach;

  }


  on data-1-1 {

    device    /dev/drbd0;

    disk      /dev/sdb1;

    address   10.0.10.7:7788;

    meta-disk /dev/sdb2[0];

  }


  on data-1-2 {

    device     /dev/drbd0;

    disk       /dev/sdb1;

    address    10.0.10.8:7788;

    meta-disk  /dev/sdb2[0];

  }

}



在主节点上面:

drbdadm create-md data     创建数据节点

drbdadm up all(data)       启动数据节点

cat /proc/drbd             查看drbd状态

drbdadm -- --overwrite-data-of-peer primary data             将其中一台机器提升为主节点


然后分别启动drdb,查看状态:

[root@data-1-1 data]# cat /proc/drbd           

version: 8.4.6 (api:1/proto:86-101)

GIT-hash: 833d830e0152d1e457fa7856e71e11248ccf3f70 build by phil@Build64R6, 2015-04-09 14:35:00

 0: cs:Connected ro:Primary/Secondary ds:UpToDate/Diskless C r-----

    ns:976730 nr:0 dw:184 dr:977613 al:3 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0


[root@data-1-2 /]# cat /proc/drbd 

version: 8.4.6 (api:1/proto:86-101)

GIT-hash: 833d830e0152d1e457fa7856e71e11248ccf3f70 build by phil@Build64R6, 2015-04-09 14:35:00

 0: cs:Connected ro:Secondary/Primary ds:Diskless/UpToDate C r-----

    ns:0 nr:0 dw:0 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:0


     本文转自陈继松 51CTO博客,原文链接:http://blog.51cto.com/chenjisong/1718508,如需转载请自行联系原作者




相关文章
|
3月前
|
SQL Oracle 关系型数据库
实时计算 Flink版产品使用合集之在进行数据同步作业时,有什么方法可以用于检查源端和目标端的数据一致性
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
3月前
|
canal 关系型数据库 MySQL
四种常用的 MySQL 数据同步 ES 的方法
【2月更文挑战第16天】
1787 2
四种常用的 MySQL 数据同步 ES 的方法
|
12月前
|
存储 监控 关系型数据库
快速将大规模MySQL数据同步到Doris的方法解析
NineData 采用先进的数据同步技术,确保数据实时同步到 Doris,极大地降低了数据延迟,实测 500 GB 数据传输完成仅用时 40 分钟,让您的决策基于最新数据。
902 0
|
算法 编译器 调度
程序并发操作中,解决数据同步的四种方法
程序并发操作中,解决数据同步的四种方法
152 0
程序并发操作中,解决数据同步的四种方法
|
关系型数据库 MySQL 数据库
|
13天前
|
SQL 关系型数据库 MySQL
“震撼揭秘!Flink CDC如何轻松实现SQL Server到MySQL的实时数据同步?一招在手,数据无忧!”
【8月更文挑战第7天】随着大数据技术的发展,实时数据同步变得至关重要。Apache Flink作为高性能流处理框架,在实时数据处理领域扮演着核心角色。Flink CDC(Change Data Capture)组件的加入,使得数据同步更为高效。本文介绍如何使用Flink CDC实现从SQL Server到MySQL的实时数据同步,并提供示例代码。首先确保SQL Server启用了CDC功能,接着在Flink环境中引入相关连接器。通过定义源表与目标表,并执行简单的`INSERT INTO SELECT`语句,即可完成数据同步。
39 1
|
19天前
|
SQL canal 关系型数据库
(二十四)全解MySQL之主从篇:死磕主从复制中数据同步原理与优化
兜兜转转,经过《全解MySQL专栏》前面二十多篇的内容讲解后,基本对MySQL单机模式下的各方面进阶知识做了详细阐述,同时在前面的《分库分表概念篇》、《分库分表隐患篇》两章中也首次提到了数据库的一些高可用方案,但前两章大多属于方法论,并未涵盖真正的实操过程。接下来的内容,会以目前这章作为分割点,开启MySQL高可用方案的落地实践分享的新章程!
122 1
|
1天前
|
SQL DataWorks 关系型数据库
DataWorks操作报错合集之如何处理数据同步时(mysql->hive)报:Render instance failed
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
1天前
|
canal 关系型数据库 MySQL
"揭秘阿里数据同步黑科技Canal:从原理到实战,手把手教你玩转MySQL数据秒级同步,让你的数据处理能力瞬间飙升,成为技术界的新晋网红!"
【8月更文挑战第18天】Canal是一款由阿里巴巴开源的高性能数据同步系统,它通过解析MySQL的增量日志(Binlog),提供低延迟、可靠的数据订阅和消费功能。Canal模拟MySQL Slave与Master间的交互协议来接收并解析Binary Log,支持数据的增量同步。配置简单直观,包括Server和Instance两层配置。在实战中,Canal可用于数据库镜像、实时备份等多种场景,通过集成Canal Client可实现数据的消费和处理,如更新缓存或写入消息队列。
24 0
|
23天前
|
分布式计算 关系型数据库 MySQL
MySQL超时参数优化与DataX高效数据同步实践
通过合理设置MySQL的超时参数,可以有效地提升数据库的稳定性和性能。而DataX作为一种高效的数据同步工具,可以帮助企业轻松实现不同数据源之间的数据迁移。无论是优化MySQL参数还是使用DataX进行数据同步,都需要根据具体的应用场景来进行细致的配置和测试,以达到最佳效果。

热门文章

最新文章