总结:基于Oracle Logminer数据同步

本文涉及的产品
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
日志服务 SLS,月写入数据量 50GB 1个月
全局流量管理 GTM,标准版 1个月
简介:

第 1 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
LogMiner 配置使用手册 
1 Logminer 简介 
1.1 LogMiner介绍 
Oracle LogMiner 是 Oracle 公司从产品 8i 以后提供的一个实际非常有用的分析工具,使
用该工具可以轻松获得 Oracle 在线/归档日志文件中的具体内容,特别是该工具可以分析出所
有对于数据库操作的 DML 和 DDL 语句。该工具特别适用于调试、审计或者回退某个特定的事
务。 
LogMiner分析工具实际上是由一组PL/SQL包和一些动态视图(Oracle8i内置包的一部分)
组成,它作为 Oracle 数据库的一部分来发布是 8i 产品提供的一个完全免费的工具。但该工具和
其他Oracle 内建工具相比使用起来显得有些复杂,主要原因是该工具没有提供任何的图形用户
界面(GUI)。 
1.2 LogMiner作用 
在 Oracle 8i 之前,Oracle 没有提供任何协助数据库管理员来读取和解释重作日志文件内容
的工具。系统出现问题,对于一个普通的数据管理员来讲,唯一可以作的工作就是将所有的log
文件打包,然后发给 Oracle 公司的技术支持,然后静静地等待 Oracle 公司技术支持给我们最
后的答案。然而从8i以后,Oracle 提供了这样一个强有力的工具--LogMiner。 
LogMiner 工具即可以用来分析在线,也可以用来分析离线日志文件,即可以分析本身自己
数据库的重作日志文件,也可以用来分析其他数据库的重作日志文件。 
总的说来,LogMiner工具的主要用途有: 
1. 跟踪数据库的变化:可以离线的跟踪数据库的变化,而不会影响在线系统的性能。 
2. 回退数据库的变化:回退特定的变化数据,减少 point-in-time recovery 的执行。 
3. 优化和扩容计划:可通过分析日志文件中的数据以分析数据增长模式 
1.3 使用详解 
1.3.1 安装LogMiner 
在使用 LogMiner 之前需要确认 Oracle 是否带有进行 LogMiner 分析包,一般来说第 2 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
Windows操作系统 Oracle10g 以上都默认包含。如果不能确认,可以 DBA身份登录系统,查
看系统中是否存在运行LogMiner所需要的dbms_logmnr、dbms_logmnr_d包,如果没有需
要安装 LogMiner工具,必须首先要运行下面这样两个脚本: 
1、$ORACLE_HOME/rdbms/admin/dbmslm.sql 
2、$ORACLE_HOME/rdbms/admin/dbmslmd.sql. 
这两个脚本必须均以DBA用户身份运行。其中第一个脚本用来创建DBMS_LOGMNR 包,
该包用来分析日志文件。第二个脚本用来创建DBMS_LOGMNR_D包,该包用来创建数据字典
文件。 
创建完毕后将包括如下过程和视图: 
类型 过程名 用途 
过程 Dbms_logmnr_d.build 创建一个数据字典文件 
过程 Dbms_logmnr.add_logfile 在类表中增加日志文件以供分析 
过程 Dbms_logmnr.start_logmnr 使用一个可选的字典文件和前面确定要分析日志
文件来启动LogMiner 
过程 Dbms_logmnr.end_logmnr 停止LogMiner分析 
视图 V$logmnr_dictionary 显示用来决定对象ID 名称的字典文件的信息 
视图 V$logmnr_logs 在LogMiner启动时显示分析的日志列表 
视图 V$logmnr_contents LogMiner启动后,可以使用该视图在 SQL 提示
符下输入SQL语句来查询重做日志的内容 
1.3.2 创建数据字典文件 
LogMiner 工具实际上是由两个新的 PL/SQL 内建包((DBMS_LOGMNR 和 DBMS_ 
LOGMNR_D)和四个 V$动态性能视图(视图是在利用过程 DBMS_LOGMNR.START_LOGMNR
启动 LogMiner 时创建)组成。在使用 LogMiner 工具分析 redo log 文件之前,可以使用
DBMS_LOGMNR_D 包将数据字典导出为一个文本文件。该字典文件是可选的,但是如果没有
它,LogMiner 解释出来的语句中关于数据字典中的部分(如表名、列名等)和数值都将是 16
进制的形式,我们是无法直接理解的。例如,下面的sql 语句: 
INSERT INTO dm_dj_swry (rydm, rymc) VALUES (00005, '张三'); 
LogMiner解释出来的结果将是下面这个样子, 
insert into Object#308(col#1, col#2) values (hextoraw('c30rte567e436'), 
hextoraw('4a6f686e20446f65')); 
创建数据字典的目的就是让 LogMiner 引用涉及到内部数据字典中的部分时为他们实际的
名字,而不是系统内部的 16 进制。数据字典文件是一个文本文件,使用包 DBMS_LOGMNR_D第 3 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
来创建。如果我们要分析的数据库中的表有变化,影响到库的数据字典也发生变化,这时就需要
重新创建该字典文件。另外一种情况是在分析另外一个数据库文件的重作日志时,也必须要重新
生成一遍被分析数据库的数据字典文件。 
创建数据字典文件之前需要配置LogMiner文件夹: 
CREATE DIRECTORY utlfile AS 'D:\oracle\oradata\practice\LOGMNR'; 
alter system set utl_file_dir='D:\oracle\oradata\practice\LOGMNR' scope=spfile; 
创建字典文件需要以DBA用户登录,创建到上面配置好的LogMiner文件夹中: 
CONN LOGMINER/ LOGMINER@PRACTICE AS SYSDBA 
EXECUTE dbms_logmnr_d.build(dictionary_filename => 'dictionary.ora', dictionary_
location =>'D:\oracle\oradata\practice\LOGMNR'); 
1.3.3 加入需分析的日志文件 
Oracle 的 LogMiner 可以分析在线(online)和归档(offline)两种日志文件,加入分析
日志文件使用 dbms_logmnr.add_logfile 过程,第一个文件使用 dbms_logmnr.NEW 参数,
后面文件使用 dbms_logmnr.ADDFILE 参数。 
1、创建列表 
BEGIN 
dbms_logmnr.add_logfile(logfilename=>'D:\oracle\oradata\practice\REDO03.LO
G',options=>dbms_logmnr.NEW); 
END; 

2、添加其他日志文件到列表 
BEGIN 
dbms_logmnr.add_logfile(logfilename=>'D:\oracle\oradata\practice\ARCHIVE\A
RC00002_0817639922.001',options=>dbms_logmnr.ADDFILE); 
dbms_logmnr.add_logfile(logfilename=>'D:\oracle\oradata\practice\ARCHIVE\A
RC00003_0817639922.001',options=>dbms_logmnr.ADDFILE); 
END; 

1.3.4 使用LogMiner 进行日志分析 
Oracle 的 LogMiner 分析时分为无限制条件和限制条件两种,无限制条件中分析所有加入
到分析列表日志文件,限制条件根据限制条件分析指定范围日志文件。 
第 4 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
1、无限制条件 
EXECUTE 
dbms_logmnr.start_logmnr(dictfilename=>'D:\oracle\oradata\practice\LOGMNR\
dictionary.ora'); 
2、有限制条件 
通过对过程DBMS_ LOGMNR.START_LOGMNR中几个不同参数的设置(参数含义见表1),
可以缩小要分析日志文件的范围。通过设置起始时间和终止时间参数我们可以限制只分析某一时
间范围的日志。 
参数 参数类型 默认值 含义 
StartScn 数字型 0 分析重作日志中SCN≥StartScn 日志文件部分 
EndScn 数字型 0 分析重作日志中SCN≤EndScn 日志文件部分 
StartTime 日期型 1998-01-01 分析重作日志中时间戳≥StartTime 的日志文件
部分 
EndTime 日期型 2988-01-01 分析重作日志中时间戳≤EndTime 的日志文件部
分 
DictFileName 字符型 字典文件该文件包含一个数据库目录的快照。 
如下面的例子,我们仅仅分析 2013 年6 月8日的日志,: 
EXECUTE dbms_logmnr.start_logmnr( 
DictFileName => dictfilename=>'D:\..\practice\LOGMNR\dictionary.ora', 
StartTime =>to_date('2013-6-8 00:00:00','YYYY-MM-DD HH24:MI:SS') 
EndTime =>to_date(''2013-6-8 23:59:59','YYYY-MM-DD HH24:MI:SS ')); 
也可以通过设置起始SCN和截至 SCN来限制要分析日志的范围: 
EXECUTE dbms_logmnr.start_logmnr( 
DictFileName =>'D:\..\practice\LOGMNR\dictionary.ora', 
StartScn =>20, 
EndScn =>50); 
1.3.5 观察分析结果(v$logmnr_contents) 
到现在为止,我们已经分析得到了重作日志文件中的内容。动态性能视图
v$logmnr_contents包含 LogMiner分析得到的所有的信息。 
SELECT sql_redo FROM v$logmnr_contents; 
如果我们仅仅想知道某个用户对于某张表的操作,可以通过下面的 SQL 查询得到,该查询
可以得到用户 LOGMINER对表EMP所作的一切工作。 
SELECT sql_redo FROM v$logmnr_contents WHERE username='LOGMINER' AND 第 5 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
tablename='EMP'; 
序号 名称 含义 
1 SCN 特定数据变化的系统更改号 
2 TIMESTAM 数据改变发生的时间 
3 COMMIT_TIMESTAMP 数据改变提交的时间 
4 SEG_OWNER 数据发生改变的段名称 
5 SEG_NAME 段的所有者名称 
6 SEG_TYPE 数据发生改变的段类型 
7 SEG_TYPE_NAME 数据发生改变的段类型名称 
8 TABLE_SPACE 变化段的表空间 
9 ROW_ID 特定数据变化行的ID 
10 SESSION_INFO 数据发生变化时用户进程信息 
11 OPERATION 重做记录中记录的操作(如 INSERT) 
12 SQL_REDO 可以为重做记录重做指定行变化的 SQL 语句(正
向操作) 
13 SQL_UNDO 可以为重做记录回退或恢复指定行变化的 SQL
语句(反向操作) 
需要强调一点的是,视图 v$logmnr_contents 中的分析结果仅在我们运行过程
'dbms_logmrn.start_logmnr'这个会话的生命期中存在。这是因为所有的 LogMiner 存储都在
PGA内存中,所有其他的进程是看不到它的,同时随着进程的结束,分析结果也随之消失。 
最后,使用过程DBMS_LOGMNR.END_LOGMNR终止日志分析事务,此时 PGA内存区域
被清除,分析结果也随之不再存在。 
2 数据同步 Oracle 数据库设置 
Oracle 数据使用 LogMiner查看执行 SQL语句,其中需要进行如下四步骤是指: 
1. 设置数据库为归档模式; 
2. 设置 LogMiner字典文件路径等; 
3. 创建数据同步用户(如用户名为 LOGMINER,该用户拥有DBA权限); 
4. 验证配置是否成功; 第 6 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
2.1 设置数据库为归档模式
2.1.1 查看数据库是否为归档模式 
使用 SqlPlus或者命令行界面连接数据库(以下以命令行界面操作) 
--进入SqlPlus程序 
sqlplus /nolog 
--使用DBA用户登录到源数据库中 
conn system/system@practic as sysdba 

--查看PRACTICE数据库是否处于归档模式 
SELECT dbid, name, log_mode FROM v$database; 
或者 ARCHIVE LOG LIST; 

如果显示数据库显示为归档模式,则设置数据库为归档模式可跳过;如果显示数据库为非归档模
式则需要进行以下设置。 
上图显示数据库未进行归档,需要进行归档设置。 第 7 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
2.1.2 设置归档模式
创建 ARCHIVE 文件夹,ARCHIVE 文件夹路径根据所在服务器进行设置,在下面操作中设置为" 
D:\oracle\oradata\practice\ARCHIVE" 

--设置归档日志文件路径 
ALTER SYSTEM SET log_archive_dest="D:\oracle\oradata\practice\ARCHIVE"; 
--日志文件名称格式: 
ALTER SYSTEM SET log_archive_format="ARC%S_%R.%T" SCOPE=SPFILE; 

--修改完毕后,关闭数据库,以 MOUNT方式启动 
SHUTDOWN IMMEDIATE; 
STARTUP MOUNT; 
--设置数据库为归档模式 
ALTER DATABASE ARCHIVELOG; 第 8 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 

(注意:如果重启数据失败,请参考第4 章节异常问题处理) 
2.1.3 验证归档是否设置成功 
--查看PRACTICE数据库是否处于归档模式 
SELECT dbid, name, log_mode FROM v$database; 
或者 ARCHIVE LOG LIST; 

--验证参数设置是否起作用 
SELECT dest_id, status, destination FROM v$archive_dest WHERE dest_id =1; 

--在参数文件设置已经起作用,打开数据库 第 9 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
ALTER DATABASE OPEN; 

2.2 LogMiner设置 
2.2.1 创建LogMiner 文件夹 
创建 LOGMNR文件夹,路径为"D:\oracle\oradata\practice\LOGMNR" 

2.2.2 设置LogMiner 字典文件路径 
--创建数据字典文件 
CREATE DIRECTORY utlfile AS 'D:\oracle\oradata\practice\LOGMNR'; 
alter system set utl_file_dir='D:\oracle\oradata\practice\LOGMNR' scope=spfile; 第 10 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 

2.2.3 开启LogMiner 日志补充模式 
--创建数据字典文件 
alter database add supplemental log data; 

2.2.4 重启数据库验证 
--修改完毕后,关闭数据库,以 MOUNT方式启动 
SHUTDOWN IMMEDIATE; 
STARTUP; 
--查看Logminer文件夹是否设置 
SHOW PARAMETER utl_file_dir; 第 11 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 

2.3 创建数据同步用户 
在数据库创建LOGMINER用户,该用户需要具有DBA权限 
--在源数据库创建 LOGMINER用户,并赋予 DBA权限 
CREATE USER LOGMINER IDENTIFIED BY LOGMINER; 
GRANT CONNECT, RESOURCE,DBA TO LOGMINER; 

3 使用 LogMiner 读取日志例子 
在使用 LogMiner 读取归档/在线日志需要按照第 2 章节进行设置,设置完毕后可以对归档
和在线日志进行分析。特别是需要开启 LogMiner 日志补充模式,如果没有开始 LogMiner 补
充模式将无法查看 DDL语句,按照测试结果看,只有开始 LogMiner日志补充模式后,才能查
看 DDL语句,在此之前进行DDL将无法进行查看。 第 12 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
3.1 使用LogMiner 读取在线日志
3.1.1 测试数据准备 
--以LOGMINER用户登录(非DBA登录)创建 AAAAA表(Oracle11g请注意用户名、密码大
小写) 
CONNECT LOGMINER/LOGMINER@PRACTICE 
CREATE TABLE AAAAA(field001 varchar2(100)); 
INSERT INTO AAAAA (field001) values ('000000'); 
INSERT INTO AAAAA (field001) values ('0000010'); 
commit; 

3.1.2 创建数据字典文件 
数据库对象发生变化,需要重新创建数据字典文件 
--以LOGMINER用户(DBA权限)登录,生成字典文件 
CONN LOGMINER/LOGMINER@PRACTICE AS SYSDBA 
EXECUTE dbms_logmnr_d.build(dictionary_filename => 'dictionary.ora', dictionary_loca
tion =>'D:\oracle\oradata\practice\LOGMNR'); 

3.1.3 确认当前处于联机状态的日志文件 
--需要确认当前处于联机状态的日志文件 
SELECT group#, sequence#, status, first_change#, first_time FROM V$log ORDER BY first_change#; 第 13 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 

从上图可以看出在线日志REDO03 处于ACTIVE状态中 
3.1.4 加入需分析的日志文件 
--加入解析在线日志文件 
BEGIN 
dbms_logmnr.add_logfile(logfilename=>'D:\oracle\oradata\practice\REDO03.LOG',opti
ons=>dbms_logmnr.NEW); 
END; 


3.1.5 使用LogMiner 进行分析 
--启动LogMiner进行分析 
EXECUTE 
dbms_logmnr.start_logmnr(dictfilename=>'D:\oracle\oradata\practice\LOGMNR\dictio
nary.ora'); 
第 14 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
3.1.6 观察分析结果
--查询相关操作日志 
SELECT sql_redo, sql_undo, seg_owner 
FROM v$logmnr_contents 
WHERE seg_name='AAAAA' 
AND seg_owner='LOGMINER'; 

3.2 使用LogMiner 读取归档日志 
3.2.1 测试数据准备 
--以 LOGMINER 用户登录(非 DBA 权限)创建 EMP 表(Oracle11g 请注意用户名、密码大小
写) 
CONN LOGMINER/ LOGMINER@PRACTICE 
CREATE TABLE EMP 
(EMPNO NUMBER(4) CONSTRAINT PK_EMP PRIMARY KEY, 第 15 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
ENAME VARCHAR2(10),
JOB VARCHAR2(9), 
MGR NUMBER(4), 
HIREDATE DATE, 
SAL NUMBER(7,2), 
COMM NUMBER(7,2), 
DEPTNO NUMBER(2)); 

--插入EMP数据 
INSERT INTO EMP VALUES 
(7369,'SMITH','CLERK',7902,to_date('17-12-1980','dd-mm-yyyy'),800,NULL,20); 
INSERT INTO EMP VALUES 
(7499,'ALLEN','SALESMAN',7698,to_date('20-2-1981','dd-mm-yyyy'),1600,300,30); 
INSERT INTO EMP VALUES 
(7521,'WARD','SALESMAN',7698,to_date('22-2-1981','dd-mm-yyyy'),1250,500,30); 
INSERT INTO EMP VALUES 
(7566,'JONES','MANAGER',7839,to_date('2-4-1981','dd-mm-yyyy'),2975,NULL,20); 
COMMIT; 

--从v$log视图中找出日志文件的序号 
CONNECT system/system@practice as sysdba 
ALTER SYSTEM SWITCH LOGFILE; 
select sequence#, FIRST_CHANGE#, NEXT_CHANGE#,name from v$archived_log order 
by sequence# desc; 第 16 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 

3.2.2 创建数据字典文件 
确保按照 2.2 进行 logMiner设置 
--以LOGMINER用户(DBA权限)登录,生成字典文件 
CONN LOGMINER/ LOGMINER@PRACTICE AS SYSDBA 
EXECUTE dbms_logmnr_d.build(dictionary_filename => 'dictionary.ora', dictionary_loca
tion =>'D:\oracle\oradata\practice\LOGMNR'); 

3.2.3 加入需分析的日志文件 
--加入解析日志文件 
BEGIN 
dbms_logmnr.add_logfile(logfilename=>'D:\oracle\oradata\practice\ARCHIVE\ARC000
02_0817639922.001',options=>dbms_logmnr.NEW); 
END; 
/ 第 17 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 

3.2.4 使用LogMiner 进行分析 
--启动LogMiner进行分析 
EXECUTE 
dbms_logmnr.start_logmnr(dictfilename=>'D:\oracle\oradata\practice\LOGMNR\dictio
nary.ora'); 

3.2.5 观察分析结果 
--查询相关操作日志 
SELECT sql_redo, sql_undo 
FROM v$logmnr_contents 
WHERE seg_name='EMP' 
AND seg_owner='LOGMINER'; 第 18 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 


4 其他 
4.1 异常问题处理 
4.1.1 出现ORA-12514错误 
如果出现 ORA-12514 错误时,如下图所示: 第 19 页 共 20 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 

需要修改 listerner.ora 文件,具体在 Oracle 安装目录\NETWORK\ADMIN 下,当前操作为" 
D:\oracle\product\10.2.0\db_1\NETWORK\ADMIN\listener.ora "加入如下设置 
(SID_DESC = 
(GLOBAL_DBNAME = practice) 
(ORACLE_HOME = D:\oracle\product\10.2.0\db_1) 
(SID_NAME = practice) 

设置后需要重新启动TNSListener,即可生效 
4.1.2 出现ORA-16018错误 
如果出现 ORA-16018 错误时,如下图所示: 

该问题是数据库开启了闪回功能,归档文件默认情况下是保存到闪回路径中,简单的处理方式是
在设置归档路径中加入scope=spfile 参数 
--设置归档日志文件路径 
ALTER SYSTEM SET log_archive_dest="D:\oracle\oradata\practice\ARCHIVE" 
scope=spfile; 
此时查看闪回路径,该路径并未影响,只不过闪回文件和归档文件保存到各自文件夹中 

第 1 页 共 7 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
Oracle Logminer 性能测试 
1 测试介绍 
1.1 测试目的 
通过模拟不同环境下 LogMiner 解析联机/归档日志文件运行情况,通过测试所获取
的数据分析,通过对以下两点的验证来确定通过 LogMiner技术技术可行性: 
1、在日志文件不同大小、不同数据压力情况下对数据库服务器内存、CPU 的影响; 
2、并通过查询 LogMiner 的动态表和实际物理表中数据数目是否一致,验证其准确
性。 
1.2 测试环境 
用途及说明 硬件配置 软件配置 其它说明 
数据库服务器 
型号:T420i 
处理器:Intel(R)core(TM) i5 
CPU M430 
主频:2.2G 
内存:2G 
硬盘:300G 
操作系统:WindowXP 
数据库及版本:Oracle10.2g 
IP地址:10.88.54.83 

测试机 
型号:T420i 
处理器:Intel(R)core(TM) i5 
CPU M430 
主频:2.2GHz 
内存:1.8 GB 
显示器:1280*800 宽屏 
操作系统:windows xp 
浏览器及版本:ie8 
1.3 测试方案 
1.3.1 性能影响(针对目标一) 
为了模拟实际运行环境,加入了 Logminer运行背景环境,分别测试数据库在无操作、
300 个插入/秒操作、500 个插入/秒操作情况下运行情况,并且对比日志文件50M、100M第 2 页 共 7 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
大小下运行情况 

联机日志大小 读取文件个数 运行作业数目 插入数据量 
方案一 50M 
1 个 0 个 0 笔/秒 
3 个 0 个 0 笔/秒 
5 个 0 个 0 笔/秒 
10 个 0 个 0 笔/秒 
方案二 50M 
1 个 500 个 估计300 笔/秒 
3 个 500 个 估计300 笔/秒 
5 个 500 个 估计300 笔/秒 
10 个 500 个 估计 300 笔/秒 
方案三 50M(未运行
CPU80%,680M) 
1 个 1000 个 估计 500 笔/秒 
3 个 1000 个 估计500 笔/秒 
5 个 1000 个 估计500 笔/秒 
10 个 1000 个 估计 500 笔/秒 
方案四 100M(未运行
CPU25%,464M) 
1 个 500 个 估计300 笔/秒 
3 个 500 个 估计300 笔/秒 
5 个 500 个 估计300 笔/秒 
10 个 500 个 估计 300 笔/秒 
1.3.2 准确性(针对目标二) 
1、数据类型 
序号 数据类型 是否支持 问题处理 
1 BINARY_DOUBLE 8.1 及以上 
2 BINARY_FLOAT 8.1 及以上 
3 CHAR 8.1 及以上 
4 DATE 8.1 及以上 
需设置时间格式,否则只能同步日期 
alter system set 
nls_date_format='yyyy-MM-dd 
HH24:mi:ss' scope=spfile; 
5 INTERVAL DAY 8.1 及以上 
6 INTERVAL YEAR 8.1 及以上 
7 NUMBER 8.1 及以上 
8 NVARCHAR2 8.1 及以上 
9 RAW 8.1 及以上 
10 TIMESTAMP 8.1 及以上 
11 TIMESTAMP 8.1 及以上 第 3 页 共 7 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
WITH LOCAL 
TIME ZONE 
12 VARCHAR2 8.1 及以上 
13 LONG 9.2 及以上 
14 CLOB 10.1 及以上 需要设置如下: 
ALTER DATABASE ADD SUPPLEMENTAL 
LOG DATA (ALL) COLUMNS; 
插入时分为两条语句,另外插入二进制数据
未进行测试 
15 BLOB 10.0 及以上 

2、DDL语句测试(未测试完毕) 
序号 类型 是否支持 
1 创建表(Create table) 支持 
2 删除表(Drop table) 
支持,出现两个语句,首先修改表
名为临时表名,然后删除该临时表 
监控该类型需要进行合并处理 
3 创建作业(Create job) 不支持 
4 创建序列(Create sequence) 支持 
5 创建存储过程(Create pocedure) 支持 
6 增加字段(alter table TABLE add column) 支持 
7 删除字段(alter table emp drop column) 支持 
8 修改字段(alter table emp modify column) 支持 
9 修改列名(alter table rename column) 支持 
10 修改表名(rename emp to TABLE) 支持 
11 清除表数据(truncate table TABLE) 支持 
12 删除表(drop table TABLE) 支持 
13 恢复被删除的表(Flashback table TABLE to before 
drop) 支持 
14 NOT NULL约束(alter table TABLE modify 
COLUMN not null) 支持 
15 UNIQUE 约束 支持 
16 PRIMARY KEY 约束 支持 
17 FOREIGN KEY 约束 支持 
18 CKECK 约束 支持 
19 禁用/激活约束 支持 
20 删除约束 支持 
21 创建不唯一索引 支持 第 4 页 共 7 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
22 创建唯一索引 支持
23 创建位图索引 支持 
24 创建反序索引 支持 
25 创建函数索引 支持 
26 修改索引 支持 
27 合并索引 支持 
28 重建索引 支持 
29 删除索引 支持 
30 创建视图(CREATE VIEW) 支持 
31 修改视图(CREATE OR REPLACE VIEW) 支持 
32 删除视图(DROP VIEW) 支持 
33 创建序列(CREATE SEQUENCE) 支持 
34 修改序列(ALTER SEQUENCE) 支持 
35 删除序列(DROP SEQUENCE) 支持 

3、其他问题测试 
序号 问题 现象及处理方式 
1 主子表插入数据测试 能够正常插入及同步 
2 事务提交(commit、rollback) 
能够看到提交和未提交的内容,考虑在产品设计
中加入
DBMS_LOGMNR.COMMITTED_DATA_ON
LY 
参数,该参数只读取已经提交事务 
3 批量更新时,影响多条数据,在联机日志
中每一条更新数据对应生成一条语句 不影响,可同步获取再执行 
4 更新和删除语句中带rowid 
加入去除rowid 参数
dbms_logmnr.NO_ROWID_IN_STMT 

2 测试结论 
2.1 测试初步结论 
1. 从性能影响测试中可以看出: 第 5 页 共 7 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
a) logminer加载分析过程随机器根据负载不同在 6~21 秒完成; 
b) 加载分析过程并不随日志文件个数增加在时间、CPU、内存有较大变化; 
c) 加载分析过程中受分析日志文件个数最大是内存,其次是 CPU,耗时应影响较小; 
2. 从准确性测试来看 
a) 通过设置基本上能够获取 DML语句(其中 LOB 字段还需要进行测试); 
b) 从现有情况来看,DDL支持并不充分,需要进一步测试; 
第 6 页 共 7 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 

联机日志大小 
读取
文件
个数 
运行作
业数目 插入数据量 
生成字典
文件 加载处理 分析处理 log_content

数据量 


(M) 


(秒) 
耗时
(秒) 
CPU(%

内存
(M) 
耗时
(秒) 
CPU(%

内存
(M) 
方案
一 50M 
1 个 0 个 0 笔/秒 
47.

12.

1 1 309 5.5 25 438 600 
3 个 0 个 0 笔/秒 1 1 309 5.7 25 444 222,236 
5 个 0 个 0 笔/秒 1 1 326 5.6 25 445 492,606 
10个 0 个 0 笔/秒 1 1 326 5.6 25 445 1,149,284 
方案
二 50M 
1 个 500 个 估计300 笔/秒 
47.
5 20 
1 26 391 6.7 35 530 111,328 
3 个 500 个 估计300 笔/秒 1 21 473 6.4 37 619 372,389 
5 个 500 个 估计300 笔/秒 1 25 534 6.8 44 692 622,390 
10个 500 个 估计300 笔/秒 1 30 624 6.7 39 780 1,254,748 
方案
三 
50M(未运行
CPU80%,680M) 
1 个 1000个 估计500 笔/秒 
47.

54.

3.5 71 688 15 80 806 35,892 
3 个 1000个 估计500 笔/秒 1.5 41 688 14.4 78 777 384,743 
5 个 1000个 估计500 笔/秒 1 68 687 75 805 652,148 
10个 1000个 估计500 笔/秒 10 80 689 13.2 79 806 1,295,158 
方案
四 
50M(未运行
CPU80%,667M) 
1 个 2000个 估计1000笔/秒 
47.

73.

5.5 84 691 14.6 78 808 133,844 
3 个 2000个 估计1000笔/秒 11.4 70 691 12 75 809 390,029 
5 个 2000个 估计1000笔/秒 5.5 76 690 13.6 76 806 668,013 
10个 2000个 估计1000笔/秒 6.1 40 690 15.4 88 809 1,335,587 
方案 100M(未运行 1 个 500 个 估计300 笔/秒 23. 8.7 0.8 26 484 4.1 30 573 268,715 第 7 页 共 7 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
五 CPU25%,464M) 3 个 500 个 估计300 笔/秒 8 0.9 25 534 3.2 36 622 768,989 
5 个 500 个 估计300 笔/秒 0.9 27 581 3.2 35 662 1,324,447 
10个 500 个 估计300 笔/秒 1.1 29 690 5.2 35 763 2,619,322

第 1 页 共 9 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
使用 Oracle Logminer 同步 Demo 
1 Demo介绍 
1.1 Demo设想 
前面介绍了 Oracle LogMiner 配置使用以及使用 LogMiner 进行解析日志文件性能,在这
篇文章中将利用LogMiner进行数据同步,实现从源目标数据库到目标数据库之间的数据同步。
由于LogMiner支持的版本是8.1及以上,所以进行数据同步的Oracle数据库版本也必须是8.1
及以上。 
当然在本文中介绍的是LogMiner进行数据同步例子,也可以利用LogMiner进行数据审计、
数据操作追踪等功能,由于这些从操作原理来说是一致,在本文不做讨论。 
1.2 框架图 
第 2 页 共 9 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
1.3 流程图

 配置阶段 
1、 控制端:指定源端、目标端数据库信息、LOGMINER同步时间等配置信息; 
 获取源端同步数据 
2、 控制台:通过定时轮询的方式检测是否到达数据同步时间,如果是则进行数据同步,否
则继续进行轮询; 
3、 源数据库:定时加载数据库归档日志文件到动态表v$logmnr_contents中; 
4、 源数据库:根据条件读取指定sql 语句; 
 目标端数据入库 
5、 源数据库:执行sql 语句。 
2 代码分析 
2.1 目录及环境配置 
在该 Demo 项目中需要引入 Oracle JDBC 驱动包,具体项目分为四个类: 第 3 页 共 9 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
1. Start.java:程序入口方法;
2. SyncTask.java:数据同步 Demo 核心,生成字典文件和读取日志文件、目标数据库执
行SQL语句等; 
3. DataBase.java:数据库操作基础类; 
4. Constants.java:源数据库、目标数据库配置、字典文件和归档文件路径。 

2.2 代码分析 
2.2.1 Constants.java 
在该类中设置了数据同步开始 SCN号、源数据库配置、目标数据库配置以及字典文件/日志
文件路径。需要注意的是在源数据库配置中有两个用户:一个是调用 LogMiner 用户,该用户
需要拥有 dbms_logmnr、dbms_logmnr_d两个过程权限,在该 Demo 中该用为为sync;另
外一个为 LogMiner读取该用户操作 SQL语句,在该Demo 中该用为为 LOGMINER。 
package com.constants; 

/** 
* [Constants]|描述:Logminer配置参数 
* @作者: *** 
* @日期: 2013-1-15 下午01:53:57 
* @修改历史: 
*/ 
public class Constants { 

/** 上次数据同步最后SCN号 */ 
public static String LAST_SCN = "0"; 第 4 页 共 9 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 

/** 源数据库配置 */ 
public static String DATABASE_DRIVER="oracle.jdbc.driver.OracleDriver"; 
public static String 
SOURCE_DATABASE_URL="jdbc:oracle:thin:@127.0.0.1:1521:practice"; 
public static String SOURCE_DATABASE_USERNAME="sync"; 
public static String SOURCE_DATABASE_PASSWORD="sync"; 
public static String SOURCE_CLIENT_USERNAME = "LOGMINER"; 

/** 目标数据库配置 */ 
public static String SOURCE_TARGET_URL="jdbc:oracle:thin:@127.0.0.1:1521:target"; 
public static String SOURCE_TARGET_USERNAME="target"; 
public static String SOURCE_TARGET_PASSWORD="target"; 

/** 日志文件路径 */ 
public static String LOG_PATH = "D:\\oracle\\oradata\\practice"; 

/** 数据字典路径 */ 
public static String DATA_DICTIONARY = "D:\\oracle\\oradata\\practice\\LOGMNR"; 

2.2.2 SyncTask.java 
在该类中有两个方法,第一个方法为 createDictionary,作用为生成数据字典文件,另外一
个是startLogmur,该方法是 LogMiner分析同步方法。 

/** 
* <p>方法名称: createDictionary|描述: 调用logminer
/** 
* <p>方法名称: startLogmur|描述:启动
生成数据字典文件</p> 
* @param sourceConn 源数据库连接 
* @throws Exception 异常信息 
*/ 
public void createDictionary(Connection sourceConn) throws Exception{ 
String createDictSql = "BEGIN dbms_logmnr_d.build(dictionary_filename => 
'dictionary.ora', dictionary_location =>'"+Constants.DATA_DICTIONARY+"'); END;"; 
CallableStatement callableStatement = sourceConn.prepareCall(createDictSql); 
callableStatement.execute(); 



logminer分析 </p> 
* @throws Exception 
*/ 
public void startLogmur() throws Exception{ 
第 5 页 共 9 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
Connection sourceConn = null;
Connection targetConn = null; 
try { 
ResultSet resultSet = null; 

// 获取源数据库连接 
sourceConn = DataBase.getSourceDataBase(); 
Statement statement = sourceConn.createStatement(); 

// 添加所有日志文件,本代码仅分析联机日志 
StringBuffer sbSQL = new StringBuffer(); 
sbSQL.append(" BEGIN"); 
sbSQL.append(" 
dbms_logmnr.add_logfile(logfilename=>'"+Constants.LOG_PATH+"\\REDO01.LOG', 
options=>dbms_logmnr.NEW);"); 
sbSQL.append(" 
dbms_logmnr.add_logfile(logfilename=>'"+Constants.LOG_PATH+"\\REDO02.LOG', 
options=>dbms_logmnr.ADDFILE);"); 
sbSQL.append(" 
dbms_logmnr.add_logfile(logfilename=>'"+Constants.LOG_PATH+"\\REDO03.LOG', 
options=>dbms_logmnr.ADDFILE);"); 
sbSQL.append(" END;"); 
CallableStatement callableStatement = sourceConn.prepareCall(sbSQL+""); 
callableStatement.execute(); 

// 打印获分析日志文件信息 
resultSet = statement.executeQuery("SELECT db_name, thread_sqn, filename FROM 
v$logmnr_logs"); 
while(resultSet.next()){ 
System.out.println("已添加日志文件==>"+resultSet.getObject(3)); 


System.out.println("开始分析日志文件,起始scn号:"+Constants.LAST_SCN); 
callableStatement = sourceConn.prepareCall("BEGIN 
dbms_logmnr.start_logmnr(startScn=>'"+Constants.LAST_SCN+"',dictfilename=>'"+Consta
nts.DATA_DICTIONARY+"\\dictionary.ora',OPTIONS 
=>DBMS_LOGMNR.COMMITTED_DATA_ONLY+dbms_logmnr.NO_ROWID_IN_STMT);END;"); 
callableStatement.execute(); 
System.out.println("完成分析日志文件"); 

// 查询获取分析结果 
System.out.println("查询分析结果"); 
resultSet = statement.executeQuery("SELECT 
scn,operation,timestamp,status,sql_redo FROM v$logmnr_contents WHERE 
seg_owner='"+Constants.SOURCE_CLIENT_USERNAME+"' AND seg_type_name='TABLE' AND 
operation !='SELECT_FOR_UPDATE'"); 
第 6 页 共 9 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
// 连接到目标数据库,在目标数据库执行redo语句
targetConn = DataBase.getTargetDataBase(); 
Statement targetStatement = targetConn.createStatement(); 

String lastScn = Constants.LAST_SCN; 
String operation = null; 
String sql = null; 
boolean isCreateDictionary = false; 
while(resultSet.next()){ 
lastScn = resultSet.getObject(1)+""; 
if( lastScn.equals(Constants.LAST_SCN) ){ 
continue; 


operation = resultSet.getObject(2)+""; 
if( "DDL".equalsIgnoreCase(operation) ){ 
isCreateDictionary = true; 


sql = resultSet.getObject(5)+""; 

// 替换用户 
sql = sql.replace("\""+Constants.SOURCE_CLIENT_USERNAME+"\".", ""); 
System.out.println("scn="+lastScn+",自动执行sql=="+sql+""); 

try { 
targetStatement.executeUpdate(sql.substring(0, sql.length()-1)); 
} catch (Exception e) { 
System.out.println("测试一下,已经执行过了"); 



// 更新scn 
Constants.LAST_SCN = (Integer.parseInt(lastScn))+""; 

// DDL发生变化,更新数据字典 
if( isCreateDictionary ){ 
System.out.println("DDL发生变化,更新数据字典"); 
createDictionary(sourceConn); 
System.out.println("完成更新数据字典"); 
isCreateDictionary = false; 


System.out.println("完成一个工作单元"); 


finally{ 第 7 页 共 9 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 
if( null != sourceConn ){
sourceConn.close(); 

if( null != targetConn ){ 
targetConn.close(); 


sourceConn = null; 
targetConn = null; 


3 运行结果 
3.1 源数据库操作 
1、创建 AAAAA表,并插入数据 

2、创建EMP1 表 第 8 页 共 9 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 

3.2 运行 Demo 
在控制台中输出如下日志 

3.3 目标数据库结果 
创建 AAAAA和EMP1 表,并在AAAAA插入了数据 第 9 页 共 9 页 出自石山园主,博客地址:http://www.cnblogs.com/shishanyuan 


转:http://files.cnblogs.com/files/shishanyuan/3.%E4%BD%BF%E7%94%A8OracleLogminer%E5%90%8C%E6%AD%A5Demo.pdf

文章可以转载,必须以链接形式标明出处。


本文转自 张冲andy 博客园博客,原文链接:  http://www.cnblogs.com/andy6/p/5744632.html  ,如需转载请自行联系原作者
相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
7月前
|
SQL API 数据处理
实时计算 Flink版产品使用合集之DataStream方式是否可以实现oracle--&gt;的数据同步
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStreamAPI、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
Oracle 关系型数据库 流计算
Flink CDC不支持直接连接到Oracle ADG备库进行数据同步
Flink CDC不支持直接连接到Oracle ADG备库进行数据同步
324 1
|
7月前
|
SQL Oracle 关系型数据库
实时计算 Flink版产品使用合集之和Oracle数据同步必须是使用主库吗
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStreamAPI、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
实时计算 Flink版产品使用合集之和Oracle数据同步必须是使用主库吗
|
7月前
|
Oracle 关系型数据库 MySQL
实时计算 Flink版操作报错之使用oracle-cdc的,遇到错误:ORA-01292: no log file has been specified for the current LogMiner session,该如何处理
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
4月前
|
SQL Oracle 关系型数据库
实时计算 Flink版产品使用问题之Oracle数据库是集群部署的,怎么进行数据同步
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
7月前
|
Oracle 关系型数据库 Java
java操作多数据源将oracle数据同步达梦数据库
java操作多数据源将oracle数据同步达梦数据库
|
7月前
|
数据采集 消息中间件 Oracle
通过流计算与消息中间件实现Oracle到ADB的实时数据同步链路优化实践
介绍基于流计算与消息中间件链路(Oracle->OGG->DataHub->Flink/Blink->ADB)实现的Oracle到ADB的数据实时同步架构潜在问题及处理方案。
243 0
通过流计算与消息中间件实现Oracle到ADB的实时数据同步链路优化实践
|
canal SQL Oracle
新的增量数据同步工具闪亮登场,完美支持Oracle增量同步
新的增量数据同步工具闪亮登场,完美支持Oracle增量同步
新的增量数据同步工具闪亮登场,完美支持Oracle增量同步
|
2月前
|
存储 Oracle 关系型数据库
Oracle数据库的应用场景有哪些?
【10月更文挑战第15天】Oracle数据库的应用场景有哪些?
200 64
|
16天前
|
存储 Oracle 关系型数据库
数据库数据恢复—ORACLE常见故障的数据恢复方案
Oracle数据库常见故障表现: 1、ORACLE数据库无法启动或无法正常工作。 2、ORACLE ASM存储破坏。 3、ORACLE数据文件丢失。 4、ORACLE数据文件部分损坏。 5、ORACLE DUMP文件损坏。
62 11

推荐镜像

更多