Oracle数据导入导出imp/exp(转)

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介:     在oracle安装目录下有EXP.EXE与IMP.EXE这2个文件,他们分别被用来执行数据库的导入导出。所以Oracle数据导入导出imp/exp就相当与oracle数据还原与备份。 一、Oracle数据导出exp  1、Exp参数详解(红色字体代表比较重要的参数):   (1)...

 

    在oracle安装目录下有EXP.EXEIMP.EXE这2个文件,他们分别被用来执行数据库的导入导出。所以Oracle数据导入导出imp/exp就相当与oracle数据还原与备份。

一、Oracle数据导出exp

 1Exp参数详解(红色字体代表比较重要的参数):

  (1) USERID

    运行导出命令的帐号的用户名/口令

  (2) BUFFEER

    用来取数据行的缓冲区的大小

  (3) FILE

    导出转储文件的名字

  (4) COMPRESS

    导出是否应该压缩有碎片的段成一个范围,这将会影响STORAGE子句

  (5) GRANTS

    导出时否要导出数据库对象上的授权

  (6) INDEXES  yes|no

    是否要导出表上的索引

  (7) ROWS

    是否应导出行。如它为‘N’,那么在导出文件中仅生成数据库对象的DDL

  (8) CONSSTRAINTS

    是否导出表旧的约定条件

(9) FULL

  如设为‘Y’,那么将执行一个整个数据库导出操作

(10) OWNER

  要导出的一系列数据库帐号,然后执行这些帐号的USER导出操作

(11) TABLES

  要导出的一系列表;执行这些表的TABLE导出操作

(12) RECORDLENGTH

  转储导出文件日志的长度(以字节为单位),通常都使用缺省,除非要在两个不同操作系统中传递导出文件

(13) INCTYPE

  正在执行的导出操作的类型(有效值有COMPLETE(缺省值),CUMULATIVE和IVCREMENTAL)

(14) RECORD

  在增量导出类型中的一个标记,标明是否将日志存储到数据字典中日志导出的表中

(15) PARFILE

  要传递给导出的参数文件的名字。这个文件将包含所有参数的入口项

(16) ANALYZE

  标明是否将移对象的统计信息写入导出转储文件中

(17) CONSISTENT

  标明是否保留所有导出对象的读取一致复制

(18) LOG

  导出日志将要写入的文件的名字

(19) MLS

  标明是否要导出MLS 标号

(20) MLS_LABEL

  规定了MLS标号的格式

二、Oracle数据导入imp

 1imp参数详解(红色字体代表比较重要的参数)

(1)USERID

  运行导入命令的帐号的用户名/口令

(2)BUFFEER

  用来取数据行的缓冲区的大小

(3)FILE

  导入转储文件的名字

(4)SHOW

  规定文件内容是否被显示,而不是被执行

(5)IGNORE

  标明在执行‘CREATE’命令时,是否忽略遇到的错误。如果正在导入的对象已经存在时,应使用这个参数

(6)FULL

  如设为‘Y’,那么将执行一个整个数据库导入操作

(7)FROMUSER

  在FULL=N的情况下,才有参数。它是一系列的数据库帐号,其对象应从导出转储文件中读取

(8)TOUSER

  一系列数据库帐号,导出转储文件扣的对象将要导入这些帐号

(9)GRANTS

  导入时否要导入数据库对象上的授权

(10)INDEXES

  是否要导入表上的索引

(11)ROWS

  是否应导入行。如它为‘N’,那么在导入文件中执行数据库对象的DDL

(12)TABLES

  要导入的一系列表

(13)RECORDLENGTH

  转储导入文件日志的长度(以字节为单位),通常都使用缺省,除非要在两个不同操作系统中传递导入文件

(14)INCTYPE

  正在执行的导入操作的类型(有效值有COMPLETE(缺省值),CUMULATIVE和IVCREMENTAL)

(15)PARFILE

  要传递给导入的参数文件的名字。这个文件将包含所有参数的入口项

(16)ANALYZE

  标明是否将移对象的统计信息写入导入转储文件中

(17)LOG

  导入日志将要写入的文件的名字

(18)MLS

  标明是否要导入MLS 标号

(19)INDEXFILE

  不执行导入动作,只生成建索引的文本

 

三、ExpImp工具使用介绍

1Exp它有三种模式:

  a.  用户模式: 导出用户所有对象以及对象中的数据;

  b.  表模式: 导出用户所有表或者指定的表;

  c.  整个数据库: 导出数据库中所有对象。

2Exp使用示例

  1. 导出整个数据库,包括表空间、表、约束、函数、用户、权限等等。
  2. Exp system/orcl@orcl file=d:\backup.dmp full=y
  3. 把scott用户里两个表emp,dept导出到文件/directory/scott.dmp
  4. exp scott/tiger tables=emp,dept file=d:\scott.dmp grants=y
  5. 导出emp中满足指定条件的数据
  6. exp scott/scott tables=emp query=\"where job='salesman' and sal<1600\" file=d:\scott2.dmp

 

3、imp有三种模式:

  a.  用户模式: 导出用户所有对象以及对象中的数据;

  b.  表模式: 导出用户所有表或者指定的表;

  c.  整个数据库: 导出数据库中所有对象。

4、Imp使用示例

  (1).将D:\daochu.dmp 中的数据导入 TEST数据库中。  

    imp system/manager@TEST  file=d:\daochu.dmp full=y  

    上面可能有点问题,因为有的表已经存在,然后它就报错,对该表就不进行导入。

       在后面加上 ignore=y 就可以了

  (2).将d:\daochu.dmp中的表table1 导入

    imp system/manager@TEST file=d:\daochu.dmp tables=(table1)

  (3).从d:\daochu.dmp中筛选scott用户的emp、dept表,然后导入

    imp system/manager fromuser=scott file=d:\daochu.dmp tables=(emp,dept)

  (4).从d:\daochu.dmp中筛选scott用户的emp表,然后导入到joe用户中

    imp system/manager fromuser=scott touser=joe tables=emp

5、导入工具imp可能出现的问题

  (1. 数据库对象已经存在

    一般情况, 导入数据前应该彻底删除目标数据下的表, 序列, 函数/过程,触发器等; 

    数据库对象已经存在, 按缺省的imp参数, 则会导入失败

    如果用了参数ignore=y, 会把exp文件内的数据内容导入

    如果表有唯一关键字的约束条件, 不合条件将不被导入

    如果表没有唯一关键字的约束条件, 将引起记录重复

   (2). 数据库对象有主外键约束

     不符合主外键约束时, 数据会导入失败

     解决办法: 先导入主表, 再导入依存表

   disable目标导入对象的主外键约束, 导入数据后, 再enable它们

  (3). 权限不够

   如果要把A用户的数据导入B用户下, A用户需要有imp_full_database权限

   (4). 导入大表( 大于80M ) 时, 存储分配失败

    默认的EXP时, compress = Y, 也就是把所有的数据压缩在一个数据块上.

    导入时, 如果不存在连续一个大数据块, 则会导入失败.

         导出80M以上的大表时, 记得compress= N, 则不会引起这种错误.

   (5). imp和exp使用的字符集不同

   如果字符集不同, 导入会失败, 可以改变unix环境变量或者NT注册表里NLS_LANG相关信息。导入完成后再改回来.

  (6).imp和exp版本不能往上兼容

    imp可以成功导入低版本exp生成的文件, 不能导入高版本exp生成的文件

 

根据情况我们可以用

$ imp [email=username/password@connect_string]username/password@connect_string[/email]

说明: connect_string 是在/ORACLE_HOME/network/admin/tnsnames.ora定义的本地或者远端数据库的名称。

http://www.cnblogs.com/mo-xi/p/moxi-com.html

 

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
2月前
|
DataWorks Oracle 关系型数据库
DataWorks操作报错合集之尝试从Oracle数据库同步数据到TDSQL的PG版本,并遇到了与RAW字段相关的语法错误,该怎么处理
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
52 0
|
2月前
|
SQL Oracle 关系型数据库
实时计算 Flink版产品使用合集之从Oracle数据库同步数据时,checkpoint恢复后无法捕获到任务暂停期间的变更日志,如何处理
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStreamAPI、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
13天前
|
Oracle 关系型数据库 Java
Oracle数据库导入工具IMP详解与用法
Oracle数据库导入工具IMP详解与用法
|
20天前
|
SQL Oracle 关系型数据库
使用Oracle IMP导入数据
使用Oracle IMP导入数据
|
2天前
|
SQL 存储 Oracle
TDengine 3.3.2.0 发布:新增 UDT 及 Oracle、SQL Server 数据接入
**TDengine 3.3.2.0 发布摘要** - 开源与企业版均强化性能,提升WebSocket、stmt模式写入与查询效率,解决死锁,增强列显示。 - taos-explorer支持geometry和varbinary类型。 - 企业版引入UDT,允许自定义数据转换。 - 新增Oracle和SQL Server数据接入。 - 数据同步优化,支持压缩,提升元数据同步速度,错误信息细化,支持表名修改。 - 扩展跨平台支持,包括麒麟、Euler、Anolis OS等。
10 0
|
6天前
|
Oracle 关系型数据库 MySQL
实时计算 Flink版产品使用问题之在online模式下增量抓取Oracle数据时,在archive_log切换时,出现数据丢失的情况,是什么原因
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
1月前
|
SQL 数据采集 Oracle
实时计算 Flink版产品使用问题之如何读取oracle中的blob类型的数据
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
1月前
|
Oracle 关系型数据库 数据库
实时计算 Flink版产品使用问题之连接到Oracle数据库但无法读取到数据,是什么导致的
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
22天前
|
Oracle 关系型数据库 Java
Oracle数据库导入工具IMP详解与用法
Oracle数据库导入工具IMP详解与用法
|
2月前
|
Oracle Java 关系型数据库
实时计算 Flink版产品使用合集之在同步Oracle数据时,需要下载并添加到项目中的jar包主要包括哪些
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。

推荐镜像

更多