实战数据库表结构的复制和重要数据的转移

简介: 前言:在工作中有时候需要把数据的表结构从一个系统转移到另外一个系统,并且其中的某些管理表还要复制其中的数据; 本文档记录在实际工作中的一次表结构的复制和其中某些重要数据转移的过程; 思路:先进行表结构的复制,然后再进行数据的转移  详...

前言:在工作中有时候需要把数据的表结构从一个系统转移到另外一个系统,并且其中的某些管理表还要复制其中的数据;

本文档记录在实际工作中的一次表结构的复制和其中某些重要数据转移的过程;

思路:先进行表结构的复制,然后再进行数据的转移

 

详细的操作步骤如下:

一、准备工作

1、源数据库安装的时候需要选择跟目标数据库一样的字符集;查看字符集的脚本:select userenv('language') from dual;

二、从源数据库导入表结构到目标数据库1、在源库创建相应的导入目录,并进行授权给system用户脚本:create directory  dir   as 'D:\exp';            Grant read,write on directory dir  to system;2、进行表结构的导出导入2.1 导出脚本:expdp   datachk/datachk directory=dir  dumpfile=FULL.dmp SAMPLE=0.000001  schemas=datachk  

说明:导出的schemas是datachk,SAMPLE=0.000001 表明如果表有100万行的话,导出一行(根据导出日志,部分表可能会超出该记录,可以手工删除)

2.2 在目标数据库创建相应的表空间创建数据存放的表空间脚本:CREATE TABLESPACE SAPDATA DATAFILE   'D:\app\Administrator\oradata\db1\SAPDATA01.DBF' SIZE 1024M AUTOEXTEND OFFLOGGINGEXTENT MANAGEMENT LOCAL AUTOALLOCATEBLOCKSIZE 8KSEGMENT SPACE MANAGEMENT AUTOFLASHBACK ON;创建临时表空间脚本:CREATE TEMPORARY TABLESPACE SAPDATA_TEMP TEMPFILE   'D:\app\Administrator\oradata\db1\SAPDATA_TEMP.DBF' SIZE 1024M AUTOEXTEND ON NEXT 20M MAXSIZE UNLIMITED;2.3 创建DATACHK用户CREATE USER DATACHK  IDENTIFIED BY VALUES 'datachk'  DEFAULT TABLESPACE SAPDATA  TEMPORARY TABLESPACE SAPDATA_TEMP  PROFILE DEFAULT  ACCOUNT UNLOCK;  -- 2 Roles for DATACHK   GRANT CONNECT TO DATACHK;  GRANT DBA TO DATACHK; 2.4 创建USER_DATACHK用户

CREATE USER USER_DATACHK

  IDENTIFIED BY VALUES 'usesr_datachk'

  DEFAULT TABLESPACE SAPDATA

  TEMPORARY TABLESPACE SAPDATA_TEMP

  PROFILE DEFAULT

  ACCOUNT UNLOCK;

2.5 在目标数据库进行导入导入脚本:impdp system/oracle directory=dir  dumpfile=FULL.dmp

3、进行关键表数据的导出导入3.1在源数据库进行重要表数据的导出脚本:expdp   datachk/datachk directory=dir  dumpfile=FULL1.dmp tables=I_DATASET_FIELDS,STM_PRGERRLOG,SYTM_ALERT_BS_LOG,SYTM_MAIL_INFO,SYTM_MAIL_LOG,SYTM_MAIL_REPLY,SYTM_MAIL_TP

单独导出需要复制数据的表

3.2在目标数据库drop掉相应的表脚本:DROP TABLE DATACHK.I_DATASET_FIELDS;DROP TABLE DATACHK.I_DATASET_FIELDS_20131003;DROP TABLE DATACHK.I_DATASET_OPTIONS;DROP TABLE DATACHK.I_DATASET_ORDERSHOW;impdp datachk/datachk directory=dir  dumpfile=FULL1.dmp    

 

---------------------------------------------------------------------------------------------------------------

ORACLE 技术交流群:367875324

---------------------------------------------------------------------------------------------------------------

相关文章
|
3月前
|
存储 JSON 关系型数据库
【干货满满】解密 API 数据解析:从 JSON 到数据库存储的完整流程
本文详解电商API开发中JSON数据解析与数据库存储的全流程,涵盖数据提取、清洗、转换及优化策略,结合Python实战代码与主流数据库方案,助开发者构建高效、可靠的数据处理管道。
|
5月前
|
负载均衡 算法 关系型数据库
大数据大厂之MySQL数据库课程设计:揭秘MySQL集群架构负载均衡核心算法:从理论到Java代码实战,让你的数据库性能飙升!
本文聚焦 MySQL 集群架构中的负载均衡算法,阐述其重要性。详细介绍轮询、加权轮询、最少连接、加权最少连接、随机、源地址哈希等常用算法,分析各自优缺点及适用场景。并提供 Java 语言代码实现示例,助力直观理解。文章结构清晰,语言通俗易懂,对理解和应用负载均衡算法具有实用价值和参考价值。
大数据大厂之MySQL数据库课程设计:揭秘MySQL集群架构负载均衡核心算法:从理论到Java代码实战,让你的数据库性能飙升!
|
20天前
|
人工智能 Java 关系型数据库
使用数据连接池进行数据库操作
使用数据连接池进行数据库操作
66 11
|
2月前
|
存储 数据管理 数据库
数据字典是什么?和数据库、数据仓库有什么关系?
在数据处理中,你是否常困惑于字段含义、指标计算或数据来源?数据字典正是解答这些问题的关键工具,它清晰定义数据的名称、类型、来源、计算方式等,服务于开发者、分析师和数据管理者。本文详解数据字典的定义、组成及其与数据库、数据仓库的关系,助你夯实数据基础。
数据字典是什么?和数据库、数据仓库有什么关系?
|
6月前
|
存储 缓存 数据库
数据库数据删除策略:硬删除vs软删除的最佳实践指南
在项目开发中,“删除”操作常见但方式多样,主要分为硬删除与软删除。硬删除直接从数据库移除数据,操作简单、高效,但不可恢复;适用于临时或敏感数据。软删除通过标记字段保留数据,支持恢复和审计,但增加查询复杂度与数据量;适合需追踪历史或可恢复的场景。两者各有优劣,实际开发中常结合使用以满足不同需求。
427 4
|
2月前
|
存储 关系型数据库 数据库
【赵渝强老师】PostgreSQL数据库的WAL日志与数据写入的过程
PostgreSQL中的WAL(预写日志)是保证数据完整性的关键技术。在数据修改前,系统会先将日志写入WAL,确保宕机时可通过日志恢复数据。它减少了磁盘I/O,提升了性能,并支持手动切换日志文件。WAL文件默认存储在pg_wal目录下,采用16进制命名规则。此外,PostgreSQL提供pg_waldump工具解析日志内容。
161 0
|
4月前
|
存储 SQL Java
数据存储使用文件还是数据库,哪个更合适?
数据库和文件系统各有优劣:数据库读写性能较低、结构 rigid,但具备计算能力和数据一致性保障;文件系统灵活易管理、读写高效,但缺乏计算能力且无法保证一致性。针对仅需高效存储与灵活管理的场景,文件系统更优,但其计算短板可通过开源工具 SPL(Structured Process Language)弥补。SPL 提供独立计算语法及高性能文件格式(如集文件、组表),支持复杂计算与多源混合查询,甚至可替代数据仓库。此外,SPL 易集成、支持热切换,大幅提升开发运维效率,是后数据库时代文件存储的理想补充方案。
|
7月前
|
数据库 Python
【YashanDB知识库】python驱动查询gbk字符集崖山数据库CLOB字段,数据被驱动截断
【YashanDB知识库】python驱动查询gbk字符集崖山数据库CLOB字段,数据被驱动截断
|
7月前
|
存储 运维 监控
百万指标,秒级查询,零宕机——时序数据库 TDengine 在 AIOps 中的硬核实战
本篇文章详细讲述了七云团队在运维平台中如何利用 TDengine 解决海量时序数据存储与查询的实际业务需求。内容涵盖了从数据库选型、方案落地到业务挑战及解决办法的完整过程,特别是分享了升级 TDengine 3.x 时的实战经验,给到有需要的小伙伴参考阅读。
216 1

热门文章

最新文章