Oracle 10g通过创建物化视图实现不同数据库间表级别的数据同步

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: Oracle 10g通过创建物化视图实现不同数据库间表级别的数据同步

Materialized View(物化视图)是包括一个查询结果的数据库对像, 它是远程数据的的本地副本,或者用来生成基于数据表求和的汇总表。物化视图存储基于远程表的数据,也可以称为快照。 这个基本上就说出了物化视图的本质,它是一组查询的结果


一. Oracle 10g 物化视图语法如下:


create materialized view [view_name]
refresh [fast|complete|force]
[
on [commit|demand] |
start with (start_time) next (next_time)
]
as
{创建物化视图用的查询语句}


以上是Oracle创建物化视图(Materialized View,以下简称MV)时的常用语法,各参数的含义如下:


  1. refresh [fast|complete|force] 视图刷新的方式:

fast: 增量刷新.假设前一次刷新的时间为t1,那么使用fast模式刷新物化视图时,只向视图中添加t1到当前时间段内,主表变化过的数据。
       为了记录这种变化,建立增量刷新物化视图还需要一个物化视图日志表。
       create materialized view log on (主表名)。(多张表时,此语句也生效,创建后,原来的表中会多出两类视图表:MLOG$_table_name和RUPD$_table_name)
 complete: 全部刷新。相当于重新执行一次创建视图的查询语句。
 force: 这是默认的数据刷新方式。当可以使用fast模式时,数据刷新将采用fast方式;否则使用complete方式。


  1. MV数据刷新的时间:


on demand: 在用户需要刷新的时候刷新,这里就要求用户自己动手去刷新数据(可以使用JOB定时刷新);
 on commit: 当主表中有数据提交的时候,立即刷新MV中的数据;
 start ……:从指定的时间开始,每隔一段时间(由next指定)就刷新一次;
 全刷新mv_test物化视图:

begin
     dbms_mview.refresh(TAB=>'MV_TEST',
                        METHOD=>'COMPLETE',
                        PARALLELISM=>8);
end;
/


增量刷新:

begin
     dbms_mview.refresh(TAB=>'MV_TEST',
                        METHOD=>'FAST',
                        PARALLELISM=>1);
end;
/


或者,也可以这样执行:

exec dbms_mview.refresh('MV_TEST','F');

dbms_mview.refresh('表名', 'F')   --快速刷新,也就是增量刷新
dbms_mview.refresh('表名', 'C')   --完全刷新


二. 实例演示:



以下是我通过创建物化视图,实现不同数据库间表级别的数据同步的一个过程记录,(两台服务器A和B,其中要把数据从A节点的表zh_major_item同步到B节点上)。目前实现同步的过程还只是一个单向的过程,也就是从A节点 ---> B节点:


主要步骤:


  1. 在A节点创建原表和物化视图日志
  2. 在B节点创建连接A节点的远程链接
  3. 在B节点处,创建目标表和与目标表名称相同的物化视图


1. 在A节点创建原表和物化视图日志:

--在源A处 创建物化视图日志
sqlplus tianzhi_smart/tianzhi_smart@localhost:1521/orcl
--原表zh_major_item之前已经存在,这里就不赘述表创建的过程了
--创建物化视图日志
create materialized view log on zh_major_item;


2. 在B节点创建连接A节点的远程链接:

--在目标B处 创建远程连接
--如果没有创建远程连接的权限,需要登录sysdba,为用户授权;
--之所以跟上面一样,因为我的用户名和密码相同而已
sqlplus tianzhi_smart/tianzhi_smart@localhost:1521/orcl
--创建远程连接 db_link
create public database link db_link_A 
    connect to tianzhi_smart 
    identified by "tianzhi_smart" 
    using '192.168.56.6:1521/ORCL';
--验证是否创建成功
select * from zh_major_item@db_link_A ;


3. 在B节点处,创建目标表和与目标表名称相同的物化视图:

--B节点处创建目标表bc_major_item
create table bc_major_item 
as select * from zh_major_item@db_link_A where 1=2;
--通过远程连接向A节点建立一个与目标表(bc_major_item)名称相同的物化视图    
--使用on prebuilt table注册新的物化视图,注意view名称必须和表名称一样
--使用on prebuilt table创建的物化视图被删除后,原来的表不被删除
--注意这里我创建是refresh fast on demand 类型的物化视图
 create materialized view bc_major_item 
 on prebuilt table refresh fast on demand 
 as select * from zh_major_item@db_link_A ;


4.在B节点处,刷新物化视图

--刷新物化视图
 exec dbms_mview.refresh('bc_major_item ','C');
 --刷新后,查询目标表,比对是否和原表数据相同
 select * from bc_major_item ;


5.升级采用存储过程+定时任务JOB方式,定时刷新物化视图

--创建存储过程,进行增量刷新
    create or replace procedure refresh_bc_major_item
    as
    begin
        dbms_mview.refresh('bc_major_item','F');
    end;
    /
    --创建任务JOB
    SQL> variable job1 number;
    SQL>begin
 dbms_job.submit(:job1,'refresh_bc_major_item;',sysdate,'sysdate+1/(86400)');  
    end;
    /
    --运行JOB
    SQL> begin
       dbms_job.run(:job1);
      end;
      /


6.进一步优化:


可以再写一个存储过程+定时任务JOB,定时清空物化视图日志。


三. 文章更新记录



v1.0 -- 表面是实现了同步,其实查询的只是视图,并没有完成如题目所指的问题

v2.0 -- 将目标表和物化视图建立联系,真正实现数据同步。2016.12.6

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
7月前
|
SQL API 数据处理
实时计算 Flink版产品使用合集之DataStream方式是否可以实现oracle-->的数据同步
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStreamAPI、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
7月前
|
SQL Oracle 关系型数据库
实时计算 Flink版产品使用合集之和Oracle数据同步必须是使用主库吗
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStreamAPI、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
实时计算 Flink版产品使用合集之和Oracle数据同步必须是使用主库吗
|
4月前
|
SQL Oracle 关系型数据库
实时计算 Flink版产品使用问题之Oracle数据库是集群部署的,怎么进行数据同步
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
6月前
|
关系型数据库 MySQL 数据库
数据库读写分离后的数据同步方式
【6月更文挑战第5天】该文介绍了应对大并发请求的数据库解决方案,主要涉及MySQL的主从同步和读写分离。根据业务对数据一致性和延迟的容忍度选择合适模式,读写分离则能进一步优化数据库负载。
202 3
数据库读写分离后的数据同步方式
|
7月前
|
Oracle 关系型数据库 Java
java操作多数据源将oracle数据同步达梦数据库
java操作多数据源将oracle数据同步达梦数据库
|
2天前
|
存储 Oracle 关系型数据库
数据库传奇:MySQL创世之父的两千金My、Maria
《数据库传奇:MySQL创世之父的两千金My、Maria》介绍了MySQL的发展历程及其分支MariaDB。MySQL由Michael Widenius等人于1994年创建,现归Oracle所有,广泛应用于阿里巴巴、腾讯等企业。2009年,Widenius因担心Oracle收购影响MySQL的开源性,创建了MariaDB,提供额外功能和改进。维基百科、Google等已逐步替换为MariaDB,以确保更好的性能和社区支持。掌握MariaDB作为备用方案,对未来发展至关重要。
10 3
|
2天前
|
安全 关系型数据库 MySQL
MySQL崩溃保险箱:探秘Redo/Undo日志确保数据库安全无忧!
《MySQL崩溃保险箱:探秘Redo/Undo日志确保数据库安全无忧!》介绍了MySQL中的三种关键日志:二进制日志(Binary Log)、重做日志(Redo Log)和撤销日志(Undo Log)。这些日志确保了数据库的ACID特性,即原子性、一致性、隔离性和持久性。Redo Log记录数据页的物理修改,保证事务持久性;Undo Log记录事务的逆操作,支持回滚和多版本并发控制(MVCC)。文章还详细对比了InnoDB和MyISAM存储引擎在事务支持、锁定机制、并发性等方面的差异,强调了InnoDB在高并发和事务处理中的优势。通过这些机制,MySQL能够在事务执行、崩溃和恢复过程中保持
13 3
|
2天前
|
SQL 关系型数据库 MySQL
数据库灾难应对:MySQL误删除数据的救赎之道,技巧get起来!之binlog
《数据库灾难应对:MySQL误删除数据的救赎之道,技巧get起来!之binlog》介绍了如何利用MySQL的二进制日志(Binlog)恢复误删除的数据。主要内容包括: 1. **启用二进制日志**:在`my.cnf`中配置`log-bin`并重启MySQL服务。 2. **查看二进制日志文件**:使用`SHOW VARIABLES LIKE 'log_%';`和`SHOW MASTER STATUS;`命令获取当前日志文件及位置。 3. **创建数据备份**:确保在恢复前已有备份,以防意外。 4. **导出二进制日志为SQL语句**:使用`mysqlbinlog`
18 2
|
15天前
|
关系型数据库 MySQL 数据库
Python处理数据库:MySQL与SQLite详解 | python小知识
本文详细介绍了如何使用Python操作MySQL和SQLite数据库,包括安装必要的库、连接数据库、执行增删改查等基本操作,适合初学者快速上手。
101 15
|
9天前
|
SQL 关系型数据库 MySQL
数据库数据恢复—Mysql数据库表记录丢失的数据恢复方案
Mysql数据库故障: Mysql数据库表记录丢失。 Mysql数据库故障表现: 1、Mysql数据库表中无任何数据或只有部分数据。 2、客户端无法查询到完整的信息。

推荐镜像

更多