数据交换程序异常引发的艰难的ORACLE数据提纯作业

简介:

昨日上班巡检数据库发现,其中一个数据库表空间一个晚上暴增了9G:

 

表空间状况:

  

TABLESPACE_NAME

TOTAL_SPACE

USED_SPACE

PCT_FREE

1

SZ_DATA

75774.984375M

63662.796875M

 84.02%

 

因为晚上的WEB业务非常稀少,马上怀疑是数据交换出了问题,不是真的预订数据多就是数据交换程序出错。因为我们的交换程序有个特性,把所有的交换内容包括交换出错的详细信息都用CLOB字段保存在表里了。

于是用如下语句进一步查大字段对象:

 
  1. --大字段 
  2. SELECT A.TABLE_NAME, 
  3.        A.COLUMN_NAME, 
  4.        B.SEGMENT_NAME, 
  5.        B.SEGMENT_TYPE, 
  6.        B.TABLESPACE_NAME, 
  7.        B.BYTES / 1024 / 1024
  8.   FROM USER_LOBS A, USER_SEGMENTS B 
  9. WHERE A.SEGMENT_NAME = B.SEGMENT_NAME 
  10. ORDER BY B.BYTES DESC

查询结果:

TABLE_NAME

COLUMN_NAME

SEGMENT_NAME

SEGMENT_TYPE

TABLESPACE_NAME

B.BYTES/1024/1024

EXCHANGE_LOG

ERROR_TRACE

SYS_LOB0000077498C00012$$

LOBSEGMENT

SZ_DATA

50310

SEND_CONTROL

CONTENT

SYS_LOB0000077595C00003$$

LOBSEGMENT

SZ_DATA

2240

ACCESSORY_UPLOAD

FILEDATA

SYS_LOB0000077486C00010$$

LOBSEGMENT

SZ_DATA

488

EXCHANGE_LOG_HISTORY

ERROR_TRACE

SYS_LOB0000133755C00012$$

LOBSEGMENT

SZ_DATA

72

SEND_CONTROL

ERR_TRACE

SYS_LOB0000077595C00008$$

LOBSEGMENT

SZ_DATA

9

FILES

CONTENT

SYS_LOB0000077501C00004$$

LOBSEGMENT

SZ_DATA

2

SEND_CONTROL_HISTORY_2009

CONTENT

SYS_LOB0000133605C00003$$

LOBSEGMENT

SZ_DATA

0.0625

SEND_CONTROL_HISTORY

ERR_TRACE

SYS_LOB0000103089C00008$$

LOBSEGMENT

SZ_DATA

0.0625

MEMOS

CONTENT

SYS_LOB0000077530C00006$$

LOBSEGMENT

SZ_DATA

0.0625

SEND_CONTROL_HISTORY

CONTENT

SYS_LOB0000103089C00003$$

LOBSEGMENT

SZ_DATA

0.0625

NOTICES

CONTENT

SYS_LOB0000077538C00007$$

LOBSEGMENT

SZ_DATA

0.0625

SEND_CONTROL_HISTORY_2009

ERR_TRACE

SYS_LOB0000133605C00008$$

LOBSEGMENT

SZ_DATA

0.0625

很显然上述EXCHANGE_LOG占据了50310M的空间,而该表空间总共消耗了63662.796875M,显然问题就出在这个大对象下。

因为该部分数据不能测地删除,故采用如下JOB对重复数据进行提纯处理:

我们通过建exchange_log_history表提取sz_exchange_log中的数据,删除大量的冗余数据

 
  1. create or replace procedure p_job_exchange_log_pure Authid Current_User Is 
  2.   num   number; 
  3.   days  number; 
  4.   v_sql varchar2(3000); 
  5. begin 
  6.  
  7. select trunc(Sysdate- min(create_date)) into days from exchange_log; 
  8.  
  9.   num := 0; 
  10.   while num < days 
  11.  
  12.   LOOP 
  13.     begin 
  14.       --建立断点,若异常则回滚到point1之前 
  15.       savepoint point1; 
  16.       v_sql := 'insert into exchange_log_history('
  17.       v_sql := v_sql || 
  18.                ' Select * from exchange_log a Where (msg_type,msg_code) in (select msg_type,msg_code from exchange_log Where trunc(create_date)=trunc(sysdate-'|| num ||') group by msg_type,msg_code having count(*) >= 1)'
  19.       v_sql := v_sql || 
  20.                ' And rowid in (select min(rowid) from exchange_log Where trunc(create_date)=trunc(sysdate-'|| num || ') group by msg_type,msg_code having count(*)>=1))'
  21.       execute immediate v_sql; 
  22.       commit
  23.       num := num + 1; 
  24.     Exception 
  25.       when others then 
  26.         rollback to savepoint point1; /*//*异常处理,保存点下面的操作都不会被执行*/ 
  27.         return
  28.     end
  29.  
  30.   end LOOP; 
  31.   End p_job_exchange_log_pure; 

 

 本文转自zylhsy 51CTO博客,原文链接:http://blog.51cto.com/yunlongzheng/635746,如需转载请自行联系原作者

相关文章
|
3月前
|
SQL 运维 Oracle
【迁移秘籍揭晓】ADB如何助你一臂之力,轻松玩转Oracle至ADB的数据大转移?
【8月更文挑战第27天】ADB(Autonomous Database)是由甲骨文公司推出的自动化的数据库服务,它极大简化了数据库的运维工作。在从传统Oracle数据库升级至ADB的过程中,数据迁移至关重要。
63 0
|
3月前
|
数据采集 Oracle 关系型数据库
实时计算 Flink版产品使用问题之怎么实现从Oracle数据库读取多个表并将数据写入到Iceberg表
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
1月前
|
Oracle 关系型数据库 数据库
oracle数据创建同义词
oracle数据创建同义词
47 0
|
3月前
|
SQL 监控 Oracle
Oracle数据误删不用怕,跟我来学日志挖掘
Oracle数据误删不用怕,跟我来学日志挖掘
41 0
|
3月前
|
SQL Oracle 关系型数据库
Oracle误删数据怎么恢复?
Oracle误删数据怎么恢复?
45 0
|
3月前
|
SQL Oracle Java
实时计算 Flink版产品使用问题之采集Oracle数据时,为什么无法采集到其他TABLESPACE的表
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
3月前
|
分布式计算 Oracle 关系型数据库
实时计算 Flink版产品使用问题之获取Oracle的数据时无法获取clob类型的数据,该怎么办
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
6月前
|
SQL Oracle 关系型数据库
实时计算 Flink版产品使用合集之从Oracle数据库同步数据时,checkpoint恢复后无法捕获到任务暂停期间的变更日志,如何处理
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStreamAPI、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
4月前
|
SQL 存储 Oracle
TDengine 3.3.2.0 发布:新增 UDT 及 Oracle、SQL Server 数据接入
**TDengine 3.3.2.0 发布摘要** - 开源与企业版均强化性能,提升WebSocket、stmt模式写入与查询效率,解决死锁,增强列显示。 - taos-explorer支持geometry和varbinary类型。 - 企业版引入UDT,允许自定义数据转换。 - 新增Oracle和SQL Server数据接入。 - 数据同步优化,支持压缩,提升元数据同步速度,错误信息细化,支持表名修改。 - 扩展跨平台支持,包括麒麟、Euler、Anolis OS等。
119 0
|
4月前
|
Oracle 关系型数据库 MySQL
实时计算 Flink版产品使用问题之在online模式下增量抓取Oracle数据时,在archive_log切换时,出现数据丢失的情况,是什么原因
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。