oracle数据库带或不带数据导入导出操作大全

简介: oracle数据库带或不带数据导入导出操作大全

一、了解oracle数据库的一些概念


  • 一个数据库——多个数据库实例(这里和下面的‘——’是对应的意思)
  • 一个数据库实例——多个表空间(表空间是数据库的逻辑划分,每个数据库至少一个表空间)
  • 一个表空间——多个表

数据库的创建有这样的顺序:表空间——>用户——>给用户分权限——>表


二、导出操作(按照下面的操作进行导出)


1、导出表结构和数据:

expdp SCHEMA名/SCHEMA对应的密码 directory=tmp_dir dumpfile=file0921.dmp logfile=result.log FULL=Y

//tmp_dir为导出的目录,需要自己预先创建,创建后导出的文件file0921.dmp就在目录/oracle/tmp_dir下面

//SCHEMA为对应库的名字,oracle可以有多个SCHEMA,导出导入需要分开执行

或导出表结构不带数据

expdp SCHEMA名/SCHEMA对应的密码 directory=tmp_dir dumpfile=file0921.dmp logfile=result.log owner=用户名 rows=n;


2、创建表空间

create tablespace TS_NPFDB logging datafile '/oradata/directory/npfdb01.dbf' size 2G  autoextend on next 5G maxsize 30G extent management local;

//此处需要根据你磁盘的大小进行设置,表空间尽量设计大一些,避免后期调整带来的麻烦


3、创建用户

CREATE USER 用户名 IDENTIFIED BY 密码 DEFAULT TABLESPACE "TS_NPFDB" TEMPORARY TABLESPACE "TEMP";

GRANT "DBA" TO 用户名 ;

GRANT "CONNECT" TO 用户名 ;

GRANT "RESOURCE" TO 用户名  ;

//在用户名和密码的位置更换自己想要创建的用户名,及其对应的密码


三、导入操作 (按照下面的操作进行导入)


1、复制数据库文件到将要执行导入的机器

使用scp命令将导出的file0921.dmp复制到需要导入的机器上的oracle目录下,这个scp可以在导出的机器上执行,也可以再将要导入的机器上执行,不会操作的可以给我留言


2、给予数据文件可执行权限

chmod 775 NETPAY20200811.dmp


3、执行导入操作

impdp 用户名/密码 DIRECTORY=dpdata1 DUMPFILE=file0921.dmp SCHEMAS=SCHEMA名;


四、数据库导出导入操作可能会用到的命令大全


  • 查看已存在表空间的命令:select file_id, tablespace_name from dba_data_files;
  • 删除已存在的表空间的命令:drop tablespace TS_DATA_NPFBK including contents and datafiles cascade constraint;
  • 查看已存在的用户和密码的命令:select username, password from dba_users;
  • 删除已存在的用户的命令:drop user username cascade;
  • sql中创建导入路径命令create or replace directory dpdata1 as '/oracle';
  • sql中给导入用户权限命令grant read, write on directory dpdata1 to username;
  • 查看用户下的所有表名:select table_name from all_tables where owner='username';
  • 查看所有用户及其对应的表空间select username,default_tablespace from dba_users;
  • 查看所有表空间对应的数据文件select tablespace_name,file_name from dba_data_files;
  • 查看表空间的位置 select * from dba_data_files WHERE tablespace_name = 'TS_DATA_NPFBK';
  • 重新定义表空间大小alter tablespace TS_DATA_NPFBK resize 5G ;
  • 修改数据文件大小alter database datafile '/oradata/directory/npfbk01.dbf' RESIZE 4G;
  • 修改数据文件自动增长alter database datafile '/oradata/directory/npfbk02.dbf' autoextend on next 10G maxsize 15G
  • 增加数据文件个数alter tablespace TS_DATA_NPFBK add datafile '/oradata/directory/npfbk02.dbf' size 5G;
  • alter tablespace TS_NPFDB add datafile '/oradata/directory/npfdb02.dbf' size 10G;
  • 查看数据库实例的状态select instance_name, status from v$instance;
  • 查询所有的schema所占空间大小

//消耗的总磁盘空间(包括索引、表空间空闲空间),单位G

Select owner, sum(bytes)/1024/1024/1024 schema_size_gig from sys.dba_segments group by owner;
  • 表空间已使用大小
select d.tablespace_name, d.totalSize - f.freeSize "已使用空间(M)"
from
(
    SELECT DD.TABLESPACE_NAME,ROUND(SUM(DD.BYTES) / (1024 * 1024), 2) totalSize
    FROM SYS.DBA_DATA_FILES DD
    GROUP BY DD.TABLESPACE_NAME
) d,
(
    SELECT TABLESPACE_NAME,
           ROUND(SUM(BYTES) / (1024 * 1024), 2) freeSize
    FROM SYS.DBA_FREE_SPACE
    GROUP BY TABLESPACE_NAME
) f
where d.TABLESPACE_NAME = f.TABLESPACE_NAME
  • 查询所有schema

//一个用户(user)对应一个方案(schema)

select username from sys.dba_users
  • 查询shema下的所有表
select table_name from sys.dba_tables where owner='schema名';

查询所有的schema及所属的所有表

select s.username "schema",t.table_name "table_name" from sys.dba_users s left join sys.dba_tables t on s.username=t.owner order by s.username asc;
  • 查询指定schema各segment_type占用空间大小
Select sum(bytes)/1024/1024/1024 as size_in_gig, segment_type from dba_segments where owner='SCOTT' group by segment_type;
  • Drop Table 之后,如果空间不能回收,需要执行下面语句

清除当前用户的回收站:purge recyclebin;

清除所有用户的回收站:purge dba_recyclebin;

  • 通过指定表空间查询所属的表名
select Table_Name, Tablespace_Name from Dba_Tables where Tablespace_Name = 'USERS';
  • 通过指定表空间查询所属表的占用空间
select segment_name, bytes/1024||'KB' "占用空间"
from user_segments
where segment_type='TABLE' and tablespace_name='USERS' order by segment_name asc;
  • 查看表空间的空间使用情况,包括总大小、已使用和闲置
select a.tablespace_name,
       a.bytes / 1024 / 1024 "Sum MB",
       (a.bytes - b.bytes) / 1024 / 1024 "used MB",
       b.bytes / 1024 / 1024 "free MB",
       round(((a.bytes - b.bytes) / a.bytes) * 100, 2) "percent_used"
  from (select tablespace_name, sum(bytes) bytes
          from dba_data_files
         group by tablespace_name) a,
       (select tablespace_name, sum(bytes) bytes, max(bytes) largest
          from dba_free_space
         group by tablespace_name) b
 where a.tablespace_name = b.tablespace_name
 order by ((a.bytes - b.bytes) / a.bytes) desc;
  • 以可理解的单位显示文件大小du -h mobile01.dbf  


目录
打赏
0
0
0
0
4
分享
相关文章
【YashanDB 知识库】通过 dblink 查询 Oracle 数据时报 YAS-07301 异常
客户在使用 YashanDB 通过 yasql 查询 Oracle 数据时,遇到 `YAS-07301 external module timeout` 异常,导致 dblink 功能无法正常使用,影响所有 YashanDB 版本。原因是操作系统资源紧张,无法 fork 新子进程。解决方法包括释放内存、停掉不必要的进程或增大进程数上限。分析发现异常源于 system() 函数调用失败,返回 -1,通常是因为 fork() 失败。未来 YashanDB 将优化日志信息以更好地诊断类似问题。
有哪些方法可以验证用户输入数据的格式是否符合数据库的要求?
有哪些方法可以验证用户输入数据的格式是否符合数据库的要求?
163 75
【YashanDB 知识库】通过 dblink 查询 Oracle 数据时报 YAS-07301 异常
某客户在使用 YashanDB 通过 yasql 查询 Oracle 数据时,遇到 `YAS-07301 external module timeout` 异常,导致 dblink 功能无法正常使用,影响所有版本。问题源于操作系统资源紧张,无法 fork 新子进程。解决方法包括释放内存、停掉不必要的进程或增大进程数上限。分析发现异常原因为系统调用 fork() 失败。经验总结:优化日志记录,提供更多异常信息。
循序渐进丨MogDB 中 gs_dump 数据库导出工具源码概览
通过这种循序渐进的方式,您可以深入理解 `gs_dump` 的实现,并根据需要进行定制和优化。这不仅有助于提升数据库管理的效率,还能为数据迁移和备份提供可靠的保障。
26 3
【YashanDB 知识库】用 yasldr 配置 Bulkload 模式作单线程迁移 300G 的业务数据到分布式数据库,迁移任务频繁出错
问题描述 详细版本:YashanDB Server Enterprise Edition Release 23.2.4.100 x86_64 6db1237 影响范围: 离线数据迁移场景,影响业务数据入库。 外场将部分 NewCIS 的报表业务放到分布式数据库,验证 SQL 性能水平。 操作系统环境配置: 125G 内存 32C CPU 2T 的 HDD 磁盘 问题出现的步骤/操作: 1、部署崖山分布式数据库 1mm 1cn 3dn 单线启动 yasldr 数据迁移任务,设置 32 线程的 bulk load 模式 2、观察 yasldr.log 是否出现如下错
Hutool创建数据源工厂动态查询不同数据库不同数据表的数据
Hutool创建数据源工厂动态查询不同数据库不同数据表的数据
30 2
【YashanDB 知识库】exp 导出数据库时,报错 YAS-00402
**简介:** 在执行数据导出命令 `exp --csv -f csv -u sales -p sales -T area -O sales` 时,出现 YAS-00402 错误,提示“Connection refused”。原因是数据库安装时定义的 IP 地址或未正确配置导致连接失败。解决方法是添加 `--server-host ip:port` 参数,例如 `exp --csv -f csv -u sales -p sales -T area -O sales --server-host 192.168.33.167:1688`。
Linux下mysql数据库的导入与导出以及查看端口
本文详细介绍了在Linux下如何导入和导出MySQL数据库,以及查看MySQL运行端口的方法。通过这些操作,用户可以轻松进行数据库的备份与恢复,以及确认MySQL服务的运行状态和端口。掌握这些技能,对于日常数据库管理和维护非常重要。
162 8
|
3月前
|
从建模到运维:联犀如何完美融入时序数据库 TDengine 实现物联网数据流畅管理
本篇文章是“2024,我想和 TDengine 谈谈”征文活动的三等奖作品。文章从一个具体的业务场景出发,分析了企业在面对海量时序数据时的挑战,并提出了利用 TDengine 高效处理和存储数据的方法,帮助企业解决在数据采集、存储、分析等方面的痛点。通过这篇文章,作者不仅展示了自己对数据处理技术的理解,还进一步阐释了时序数据库在行业中的潜力与应用价值,为读者提供了很多实际的操作思路和技术选型的参考。
71 1
招行面试:100万级别数据的Excel,如何秒级导入到数据库?
本文由40岁老架构师尼恩撰写,分享了应对招商银行Java后端面试绝命12题的经验。文章详细介绍了如何通过系统化准备,在面试中展示强大的技术实力。针对百万级数据的Excel导入难题,尼恩推荐使用阿里巴巴开源的EasyExcel框架,并结合高性能分片读取、Disruptor队列缓冲和高并发批量写入的架构方案,实现高效的数据处理。此外,文章还提供了完整的代码示例和配置说明,帮助读者快速掌握相关技能。建议读者参考《尼恩Java面试宝典PDF》进行系统化刷题,提升面试竞争力。关注公众号【技术自由圈】可获取更多技术资源和指导。

热门文章

最新文章