SQL Server 如何跨服务器复制表中数据

简介:

不同数据库之间复制表的数据的方法:

当表目标表存在时:

insert into 目的数据库..表 select * from 源数据库..表  

当目标表不存在时:

select * into 目的数据库..表 from 源数据库..表

--如果在不同的SQL之间: 

insert into openrowset('sqloledb','目的服务器名';'sa';'',目的数据库.dbo.表) 
select * from 源数据库..表 


-- 创建链接服务器 
exec sp_addlinkedserver   ' ITSV ' , ' ' , ' SQLOLEDB ' , ' 远程服务器名或ip地址 ' 
exec sp_addlinkedsrvlogin ' ITSV ' , ' false ' , null , ' 用户名 ' , ' 密码 ' 

-- 查询示例 
select * from ITSV.数据库名.dbo.表名 

-- 导入示例 
select * into 表 from ITSV.数据库名.dbo.表名 

-- 以后不再使用时删除链接服务器 
exec sp_dropserver ' ITSV ' , ' droplogins ' 

-- 连接远程/局域网数据(openrowset/openquery/opendatasource) 
--
 1、openrowset 

-- 查询示例 
select * from openrowset ( ' SQLOLEDB ' , ' sql服务器名 ' ; ' 用户名 ' ; ' 密码 ' ,数据库名.dbo.表名) 

-- 生成本地表 
select * into 表 from openrowset ( ' SQLOLEDB ' , ' sql服务器名 ' ; ' 用户名 ' ; ' 密码 ' ,数据库名.dbo.表名) 

-- 把本地表导入远程表 
insert openrowset ( ' SQLOLEDB ' , ' sql服务器名 ' ; ' 用户名 ' ; ' 密码 ' ,数据库名.dbo.表名) 
select * from 本地表 

-- 更新本地表 
update b 
set b.列A = a.列A 
from openrowset ( ' SQLOLEDB ' , ' sql服务器名 ' ; ' 用户名 ' ; ' 密码 ' ,数据库名.dbo.表名) as a inner join 本地表 b 
on a.column1 = b.column1 

-- openquery用法需要创建一个连接 

-- 首先创建一个连接创建链接服务器 
exec sp_addlinkedserver   ' ITSV ' , ' ' , ' SQLOLEDB ' , ' 远程服务器名或ip地址 ' 
-- 查询 
select * 
FROM openquery (ITSV, ' SELECT * FROM 数据库.dbo.表名 ' ) 
-- 把本地表导入远程表 
insert openquery (ITSV, ' SELECT * FROM 数据库.dbo.表名 ' ) 
select * from 本地表 
-- 更新本地表 
update b 
set b.列B = a.列B 
FROM openquery (ITSV, ' SELECT * FROM 数据库.dbo.表名 ' ) as a 
inner join 本地表 b on a.列A = b.列A 

-- 3、opendatasource/openrowset 
SELECT    * 
FROM    opendatasource ( ' SQLOLEDB ' , ' Data Source=ip/ServerName;User ID=登陆名;Password=密码 ').test.dbo.roy_ta 
-- 把本地表导入远程表 
insert opendatasource ( ' SQLOLEDB ' , ' Data Source=ip/ServerName;User ID=登陆名;Password=密码 ' ).数据库.dbo.表名 
select * from

-----------------------------------------------------------------------------------------------------------------------------------

好吧,如果上面看得烦下面有个更容易理解的例子:

Exec sp_droplinkedsrvlogin DBVIP,Null
Exec sp_dropserver DBVIP

EXEC sp_addlinkedserver
      @server='DBVIP',--被访问的服务器别名 
      @srvproduct='',
      @provider='SQLOLEDB',
      @datasrc='Server2'   --要访问的服务器


EXEC sp_addlinkedsrvlogin 
     'DBVIP', --被访问的服务器别名
     'false', 
     NULL, 
     'sa', --帐号
     'thankyoubobby' --密码


Select   *   from DBVIP.pubs.dbo.orders   


/////////////////////////////ORACLE////////////////////////////
Exec sp_droplinkedsrvlogin demo,Null
Exec sp_dropserver demo
go

EXEC sp_addlinkedserver 
        @server ='demo',
        @srvproduct='Oracle',
   @provider='MSDAORA', 
   @datasrc='ServiceName'

EXEC sp_addlinkedsrvlogin 
     'demo', 
     'false', 
     NULL, 
     'userid', 
     'password' 
go

SELECT * FROM OPENQUERY(demo ,'select * from tbdemo' )

UPDATE OPENQUERY (demo, 'SELECT id FROM tbdemo WHERE id = 101') 
SET name = 'hello';

INSERT OPENQUERY (demo, 'SELECT id FROM tbdemo')
VALUES ('hello');

DELETE OPENQUERY (demo, 'SELECT id FROM tbdemo WHERE name = ''hello''');

-------------------------------------------具体例子------------------------------------------------------------

if   exists(select   1   from   master.dbo.sysservers   where   srvname   =   'test')   
begin   
exec   sp_droplinkedsrvlogin     'test','sa'   
exec   sp_dropserver     'test'   
end  

--建立连接服务器 
EXEC sp_addlinkedserver 'test', 'ms','SQLOLEDB', '192.168.1.99'


exec sp_addlinkedsrvlogin 'test','false',null,'sa',''
select * from test.db_film.dbo.T_film
go

if   exists(select   1   from   master.dbo.sysservers   where   srvname   =   'test')   
begin   
exec   sp_droplinkedsrvlogin     'test','sa'   
exec   sp_dropserver     'test'   
end  

go

 

方法二:

1、新建一个连接服务器,连接到你要导入的服务器的IP地址(或者机器名)



2、点击安全性,使用此安全上下文建立连接,输入数据库服务器的用户名和密码

3、选择要导出的数据库,使用如下sql导数据:

select * into   laobao from [10.180.116.121].ynpdeicp.dbo.LaoBao

Sql解释:

select 要导入的字段 into   要导入的数据表 from [IP地址].数据库名.dbo.数据表名

相关文章
|
8月前
|
SQL 人工智能 JSON
Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理
简介:本文整理自阿里云高级技术专家李麟在Flink Forward Asia 2025新加坡站的分享,介绍了Flink 2.1 SQL在实时数据处理与AI融合方面的关键进展,包括AI函数集成、Join优化及未来发展方向,助力构建高效实时AI管道。
1108 43
|
8月前
|
SQL 人工智能 JSON
Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理
本文整理自阿里云的高级技术专家、Apache Flink PMC 成员李麟老师在 Flink Forward Asia 2025 新加坡[1]站 —— 实时 AI 专场中的分享。将带来关于 Flink 2.1 版本中 SQL 在实时数据处理和 AI 方面进展的话题。
511 0
Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理
|
9月前
|
SQL
SQL如何只让特定列中只显示一行数据
SQL如何只让特定列中只显示一行数据
|
SQL 自然语言处理 数据库
【Azure Developer】分享两段Python代码处理表格(CSV格式)数据 : 根据每列的内容生成SQL语句
本文介绍了使用Python Pandas处理数据收集任务中格式不统一的问题。针对两种情况:服务名对应多人拥有状态(1/0表示),以及服务名与人名重复列的情况,分别采用双层for循环和字典数据结构实现数据转换,最终生成Name对应的Services列表(逗号分隔)。此方法高效解决大量数据的人工处理难题,减少错误并提升效率。文中附带代码示例及执行结果截图,便于理解和实践。
323 5
|
9月前
|
SQL
SQL中如何删除指定查询出来的数据
SQL中如何删除指定查询出来的数据
|
9月前
|
SQL 关系型数据库 MySQL
SQL如何对不同表的数据进行更新
本文介绍了如何将表A的Col1数据更新到表B的Col1中,分别提供了Microsoft SQL和MySQL的实现方法,并探讨了多表合并后更新的优化方式,如使用MERGE语句提升效率。适用于数据库数据同步与批量更新场景。
|
11月前
|
SQL 数据挖掘 关系型数据库
【SQL 周周练】一千条数据需要做一天,怎么用 SQL 处理电表数据(如何动态构造自然月)
题目来自于某位发帖人在某 Excel 论坛的求助,他需要将电表缴费数据按照缴费区间拆开后再按月份汇总。当时用手工处理数据,自称一千条数据就需要处理一天。我将这个问题转化为 SQL 题目。
415 12
|
11月前
|
SQL 数据采集 资源调度
【SQL 周周练】爬取短视频发现数据缺失,如何用 SQL 填充
爬虫爬取抖音和快手的短视频数据时,如果遇到数据缺失的情况,如何使用 SQL 语句完成数据的补全。
421 5
|
10月前
|
SQL DataWorks 数据管理
SQL血缘分析实战!数据人必会的3大救命场景
1. 开源工具:Apache Atlas(元数据管理)、Spline(血缘追踪) 2. 企业级方案:阿里DataWorks血缘分析、腾讯云CDW血缘引擎 3. 自研技巧:在ETL脚本中植入版本水印,用注释记录业务逻辑变更 📌 重点总结:
|
SQL 关系型数据库 MySQL
基于SQL Server / MySQL进行百万条数据过滤优化方案
对百万级别数据进行高效过滤查询,需要综合使用索引、查询优化、表分区、统计信息和视图等技术手段。通过合理的数据库设计和查询优化,可以显著提升查询性能,确保系统的高效稳定运行。
788 9
下一篇
开通oss服务