合并分区(coalesce partition)

简介: 合并分区(coalesce partition):合并分区是用来操作HASH分区表和hash全局索引的。他会重新分配删除的分区的数据到你现有的分区中。限制:操作HASH分区表和hash全局索引,如果对LIST/RANGE分区表进行合并报错ORA-14259: 表...

合并分区(coalesce partition):合并分区是用来操作HASH分区表和hash全局索引的。他会重新分配删除的分区的数据到你现有的分区中。
限制:操作HASH分区表和hash全局索引,如果对LIST/RANGE分区表进行合并报错ORA-14259: 表未被散列方法分区
      全局索引只有RANGE和HASH才有,并且RANGE不能使用合并,同时也不能对range分区进行添加分区报错ORA-14640: 添加/合并索引分区操作只对散列分区的全局索引有效,
      而且建立全局RANGE分区必须带有MAXVALUE属性,并且是不行删除的MAXVALUE分区,如果删除报错ORA-14078: 您不能删除 GLOBAL 索引的最高分区。
我们这里讨论对索引的影响,包括全局索引,本地索引和普通索引。
使用脚本:

drop table t_pe_h;
CREATE TABLE t_pe_h (i NUMBER, j NUMBER , f number,k varchar2(20))
     PARTITION BY hash(j)
        (PARTITION p1 ,
         PARTITION p2,
         partition p4,
         partition p3);
create index t_pe_h_n on t_pe_h(i);
create index t_pe_h_l on t_pe_h(j) local;
create index t_pe_h_g on t_pe_h(f)
 GLOBAL PARTITION BY range(f)
        (PARTITION p1 VALUES  less than (10),
         PARTITION p2 VALUES less than (20),
         PARTITION p3 VALUES less than (maxvalue ));

insert into t_pe_h
values(2,5,5,'A');
insert into t_pe_h
values(1,15,10,'B');
insert into t_pe_h
values(3,25,40,'C');
insert into t_pe_h
values(2,65,30,'A');
insert into t_pe_h
values(1,75,20,'B');
insert into t_pe_h
values(3,85,50,'C');

 

select INDEX_NAME ,STATUS,a.partition_name from dba_ind_partitions a where lower(index_name)='t_pe_h_l';
select INDEX_NAME ,STATUS,a.partition_name from dba_ind_partitions a where lower(index_name)='t_pe_h_g';
select INDEX_NAME ,STATUS from dba_indexes where lower(index_name)='t_pe_h_n';

然后查看索引状态
SQL> ALTER TABLE t_pe_h
  2       COALESCE PARTITION;
 
Table altered
 
SQL>
SQL> select INDEX_NAME ,STATUS,a.partition_name from dba_ind_partitions a where lower(index_name)='t_pe_h_l';
 
INDEX_NAME                     STATUS   PARTITION_NAME
------------------------------ -------- ------------------------------
T_PE_H_L                       USABLE   P4
T_PE_H_L                       UNUSABLE P2
T_PE_H_L                       USABLE   P1
SQL> select INDEX_NAME ,STATUS,a.partition_name from dba_ind_partitions a where lower(index_name)='t_pe_h_g';
 
INDEX_NAME                     STATUS   PARTITION_NAME
------------------------------ -------- ------------------------------
T_PE_H_G                       UNUSABLE P3
T_PE_H_G                       UNUSABLE P2
T_PE_H_G                       UNUSABLE P1
SQL> select INDEX_NAME ,STATUS from dba_indexes where lower(index_name)='t_pe_h_n';
 
INDEX_NAME                     STATUS
------------------------------ --------
T_PE_H_N                       UNUSABLE
可以发现都失效了,明显的合并分区自动把P2 ,P3合并为P2了,并且起本地索引相关的P2分区也失效了,因为底层的表的ROWID改变了。
普通索引和全局索引均失效。
然后我们试试UPDATE INDEXES


SQL> ALTER TABLE t_pe_h
  2       COALESCE PARTITION update indexes;
 
Table altered
 
SQL>
SQL> select INDEX_NAME ,STATUS,a.partition_name from dba_ind_partitions a where lower(index_name)='t_pe_h_l';
 
INDEX_NAME                     STATUS   PARTITION_NAME
------------------------------ -------- ------------------------------
T_PE_H_L                       USABLE   P4
T_PE_H_L                       USABLE   P2
T_PE_H_L                       USABLE   P1
SQL> select INDEX_NAME ,STATUS,a.partition_name from dba_ind_partitions a where lower(index_name)='t_pe_h_g';
 
INDEX_NAME                     STATUS   PARTITION_NAME
------------------------------ -------- ------------------------------
T_PE_H_G                       USABLE   P3
T_PE_H_G                       USABLE   P2
T_PE_H_G                       USABLE   P1
SQL> select INDEX_NAME ,STATUS from dba_indexes where lower(index_name)='t_pe_h_n';
 
INDEX_NAME                     STATUS
------------------------------ --------
T_PE_H_N                       VALID
可以看到均有效,没有问题。另外你还可以使用合并分区来合并全局HASH的索引,如下:
ALTER INDEX hgidx COALESCE PARTITION;(对hash全局分区索引有效)

 

相关文章
|
分布式计算 Spark
Spark 中的 Rebalance 操作以及与Repartition操作的区别
Spark 中的 Rebalance 操作以及与Repartition操作的区别
938 0
拆分集合方法Lists.partition的使用
拆分集合方法Lists.partition的使用
296 0
|
SQL 分布式计算 Spark
如何在Spark中实现Count Distinct重聚合
Count Distinct是SQL查询中经常使用的聚合统计方式,用于计算非重复结果的数目。由于需要去除重复结果,Count Distinct的计算通常非常耗时。本文主要介绍在Spark中如何基于重聚合实现交互式响应的COUNT DISTINCT支持。
|
SQL HIVE
hive插入分区报错SemanticException Partition spec contains non-partition columns
hive插入分区报错SemanticException Partition spec contains non-partition columns
|
算法
每个 Partition
每个 Partition
106 0
|
SQL 分布式计算 调度
【Spark】(七)Spark partition 理解 / coalesce 与 repartition的区别
【Spark】(七)Spark partition 理解 / coalesce 与 repartition的区别
582 0
|
分布式计算 Spark
【spark系列9】spark 的动态分区裁剪上(Dynamic partition pruning)-逻辑计划
【spark系列9】spark 的动态分区裁剪上(Dynamic partition pruning)-逻辑计划
346 0
|
分布式计算 Spark
【spark系列11】spark 的动态分区裁剪下(Dynamic partition pruning)-物理计划
【spark系列11】spark 的动态分区裁剪下(Dynamic partition pruning)-物理计划
7731 0