• 关于

    数据访问对象

    的搜索结果

回答

不同的数据库连接数据库的方式不同,但是大体分为几种:ODBC(Open Database Connectivity,开放数据库互连)是微软公司开放服务结构(WOSA,Windows Open Services Architecture)中有关数据库的一个组成部分,它建立了一组规范,并提供了一组对数据库访问的标准API(应用程序编程接口)。这些API利用SQL来完成其大部分任务。DAO(Data Access Objects):数据访问对象是用来显露了Microsoft Jet数据库引擎(最早是给Microsoft Access 所使用,现在已经支持其它数据库),并允许开发者通过ODBC直接连接到其他数据库一样,直接连接到 Access 表。DAO 最适用于单系统应用程序或在小范围本地分布使用。其内部已经对Jet数据库的访问进行了加速优化,而且其使用起来也是很方便的。所以如果数据库是Access数据库且是本地使用的话,建议使用这种访问方式---应用的专一性RDO(Remote Data Objects)远程数据对象是一个到ODBC的、面向对象的数据访问接口,它同易于使用的DAO style组合在一起,提供了一个接口,形式上展示出所有ODBC的底层功能和灵活性。尽管RDO在很好地访问Jet或ISAM数据库方面受到限制,而且它只能通过现存的ODBC驱动程序来访问关系数据库。但是,RDO已被证明是许多SQL Server、Oracle 以及其他大型关系数据库开发者经常选用的最佳接口。RDO提供了用来访问存储过程和复杂结果集的更多和更复杂的对象、属性,以及方法。---无疑是在odbc基础上的OLE DB 是 Microsoft 的一个战略性系统级编程接口,用于管理整个组织内的数据。OLE DB 是建立在 ODBC 功能之上的一个开放规范。ODBC 是为访问关系型数据库而专门开发的,OLE DB 则用于访问关系型和非关系型信息源,例如主机 ISAM/VSAM 和层次数据库,电子邮件和文件系统存储,文本、图形和地理数据以及自定义业务对象。 OLE DB 定义了一组 COM 接口,对各种数据库管理系统服务进行封装,并允许创建软件组件,实现这些服务。OLE DB 组件包括数据提供程序(包含和表现数据)、数据使用者(使用数据)和服务组件(处理和传送数据,例如,查询处理器和游标引擎)。OLE DB 接口有助于平滑地集成组件,这样,OLE DB 组件厂商就可以快速地向市场提供高质量 OLE DB 组件。此外,OLE DB 包含了一个连接 ODBC 的“桥梁”,对现用的各种 ODBC 关系型数据库驱动程序提供一贯的支持。---号称取代odbc,但也兼容odbcADO(ActiveX Data Object)是DAO/RDO的后继产物。ADO 2.0在功能上与RDO更相似,而且一般来说,在这两种模型之间有一种相似的映射关系。ADO"扩展"了DAO和 RDO 所使用的对象模型,这意味着它包含较少的对象、更多的属性、方法(和参数),以及事件。 作为最新的数据库访问模式,ADO的使用也是简单易用,所以微软已经明确表示今后把重点放在ADO上,对DAO/RDO不再作升级,所以ADO已经成为了当前数据库开发的主流。 ADO涉及的数据存储有DSN(数据源名称)、ODBC(开放式数据连接)以及OLE DB三种方式。后面的例程将详细讲解这三种方式的具体访问实现。---可以说是对odbc,oledb这些系统级的编程接口的汇接,并对DAO,RDO这些应用级的编程接口的升级吧。

卓刀 2019-12-02 00:38:22 0 浏览量 回答数 0

问题

DMS关系型数据库的操作和管理

云栖大讲堂 2019-12-01 21:29:00 1377 浏览量 回答数 0

回答

存储类型(Storage Class) OSS 提供标准、低频访问、归档三种存储类型,全面覆盖从热到冷的各种数据存储场景。其中标准存储类型提供高可靠、高可用、高性能的对象存储服务,能够支持频繁的数据访问;低频访问存储类型适合长期保存不经常访问的数据(平均每月访问频率 1 到 2 次),存储单价低于标准类型;归档存储类型适合需要长期保存(建议半年以上)的归档数据,在三种存储类型中单价最低。详情请参见存储类型介绍。 存储空间(Bucket) 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。存储空间具有各种配置属性,包括地域、访问权限、存储类型等。您可以根据实际需求,创建不同类型的存储空间来存储不同的数据。创建存储空间请参见创建存储空间。 对象/文件(Object) 对象是 OSS 存储数据的基本单元,也被称为 OSS 的文件。对象由元信息(Object Meta)、用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的 Key 来标识。对象元信息是一组键值对,表示了对象的一些属性,例如最后修改时间、大小等信息,同时您也可以在元信息中存储一些自定义的信息。 地域(Region) 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等选择合适的地域创建 Bucket。详情请参见 OSS 已开通的Region。 访问域名(Endpoint) Endpoint 表示 OSS 对外服务的访问域名。OSS 以 HTTP RESTful API 的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个 Region 对应的 Endpoint。 访问密钥(AccessKey) AccessKey(简称 AK)指的是访问身份验证中用到的 AccessKeyId 和 AccessKeySecret。OSS 通过使用 AccessKeyId 和 AccessKeySecret 对称加密的方法来验证某个请求的发送者身份。AccessKeyId 用于标识用户;AccessKeySecret 是用户用于加密签名字符串和 OSS 用来验证签名字符串的密钥,必须保密。

剑曼红尘 2020-03-26 17:12:04 0 浏览量 回答数 0

Quick BI 数据可视化分析平台

2020年入选全球Gartner ABI魔力象限,为中国首个且唯一入选BI产品

回答

你看项目中用到的就行了,跟着写  ######PO(Persistant Object) 持久对象 用于表示数据库中的一条记录映射成的 java 对象。PO 仅仅用于表示数据,没有任何数据操作。通常遵守 Java Bean 的规范,拥有 getter/setter 方法。 可以理解是一个PO就是数据库中的一条记录;可以理解某个事务依赖的原始数据;好处是可以将一条记录最为一个对象处理,可以方便转化为其他对象 BO(Business Object) 业务对象 封装对象、复杂对象,里面可能包含多个类 主要作用是把业务逻辑封装为一个对象。这个对象可以包括一个或多个其它的对象。 用于表示一个业务对象。BO 包括了业务逻辑,常常封装了对 DAO、RPC 等的调用,可以进行 PO 与 VO/DTO 之间的转换。BO 通常位于业务层,要区别于直接对外提供服务的服务层:BO 提供了基本业务单元的基本业务操作,在设计上属于被服务层业务流程调用的对象,一个业务流程可能需要调用多个 BO 来完成。 比如一个简历,有教育经历、工作经历、社会关系等等。 我们可以把教育经历对应一个PO,工作经历对应一个PO,社会关系对应一个PO。 建立一个对应简历的BO对象处理简历,每个BO包含这些PO。 这样处理业务逻辑时,我们就可以针对BO去处理。 VO(Value Object) 表现对象 前端界面展示;value object值对象;ViewObject表现层对象;主要对应界面显示的数据对象。对于一个WEB页面,或者SWT、SWING的一个界面,用一个VO对象对应整个界面的值;对于Android而言即是activity或view中的数据元素。 用于表示一个与前端进行交互的 java 对象。有的朋友也许有疑问,这里可不可以使用 PO 传递数据?实际上,这里的 VO 只包含前端需要展示的数据即可,对于前端不需要的数据,比如数据创建和修改的时间等字段,出于减少传输数据量大小和保护数据库结构不外泄的目的,不应该在 VO 中体现出来。通常遵守 Java Bean 的规范,拥有 getter/setter 方法。 DTO(Data Transfer Object) 数据传输对象 前端调用时传输;也可理解成“上层”调用时传输; 比如我们一张表有100个字段,那么对应的PO就有100个属性。但是我们界面上只要显示10个字段,客户端用WEB service来获取数据,没有必要把整个PO对象传递到客户端,这时我们就可以用只有这10个属性的DTO来传递结果到客户端,这样也不会暴露服务端表结构.到达客户端以后,如果用这个对象来对应界面显示,那此时它的身份就转为VO. 用于表示一个数据传输对象。DTO 通常用于不同服务或服务不同分层之间的数据传输。DTO 与 VO 概念相似,并且通常情况下字段也基本一致。但 DTO 与 VO 又有一些不同,这个不同主要是设计理念上的,比如 API 服务需要使用的 DTO 就可能与 VO 存在差异。通常遵守 Java Bean 的规范,拥有 getter/setter 方法 DAO(Data access object) 数据访问对象 这个大家最熟悉,和上面几个O区别最大,基本没有互相转化的可能性和必要.,主要用来封装对数据库的访问。通过它可以把POJO持久化为PO,用PO组装出来VO、DTO; 用于表示一个数据访问对象。使用 DAO 访问数据库,包括插入、更新、删除、查询等操作,与 PO 一起使用。DAO 一般在持久层,完全封装数据库操作,对外暴露的方法使得上层应用不需要关注数据库相关的任何信息。 POJO(Plain ordinary java object) 简单java对象  

kun坤 2020-06-09 11:08:56 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称 OSS),是阿里云提供的海量、安全、低成本、高可靠的云存储服务。它具有与平台无关的RESTful API接口,能够提供99.999999999%(11个9)的数据可靠性和99.99%的服务可用性。您可以在任何应用、任何时间、任何地点存储和访问任意类型的数据。 您可以使用阿里云提供的API、SDK接口或者OSS迁移工具轻松地将海量数据移入或移出阿里云OSS。数据存储到阿里云OSS以后,您可以选择标准类型(Standard)的阿里云OSS服务作为移动应用、大型网站、图片分享或热点音视频的主要存储方式,也可以选择成本更低、存储期限更长的低频访问类型(Infrequent Access)和归档类型(Archive)的阿里云OSS服务作为不经常访问数据的备份和归档。 相关概念 存储空间(Bucket) 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。您可以设置和修改存储空间属性用来控制地域、访问权限、生命周期等,这些属性设置直接作用于该存储空间内所有对象,因此您可以通过灵活创建不同的存储空间来完成不同的管理功能。 对象/文件(Object) 对象是 OSS 存储数据的基本单元,也被称为OSS的文件。对象由元信息(Object Meta),用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的Key来标识。对象元信息是一个键值对,表示了对象的一些属性,比如最后修改时间、大小等信息,同时您也可以在元信息中存储一些自定义的信息。 地域(Region) 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等综合选择数据存储的地域。详情请查看OSS已经开通的Region。 访问域名(Endpoint) Endpoint 表示OSS对外服务的访问域名。OSS以HTTP RESTful API的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个Region对应的Endpoint。 访问密钥(AccessKey) AccessKey,简称 AK,指的是访问身份验证中用到的AccessKeyId 和AccessKeySecret。OSS通过使用AccessKeyId 和AccessKeySecret对称加密的方法来验证某个请求的发送者身份。AccessKeyId用于标识用户,AccessKeySecret是用户用于加密签名字符串和OSS用来验证签名字符串的密钥,其中AccessKeySecret 必须保密。 相关服务 您把数据存储到OSS以后,就可以使用阿里云提供的其他产品和服务对其进行相关操作。 以下是您会经常使用到的阿里云产品和服务: 云服务器ECS:提供简单高效、处理能力可弹性伸缩的云端计算服务。请参见ECS产品详情页面。 内容分发网络CDN:将源站资源缓存到各区域的边缘节点,供您就近快速获取内容。请参见CDN产品详情页面。 E-MapReduce:构建于阿里云云服务器 ECS 上的大数据处理的系统解决方案,基于开源的 Apache Hadoop 和 Apache Spark,方便您分析和处理自己的数据。请参见E-MapReduce产品详情页面。 媒体处理:将存储于OSS的音视频转码成适合在PC、TV以及移动终端上播放的格式。并基于海量数据深度学习,对音视频的内容、文字、语音、场景多模态分析,实现智能审核、内容理解、智能编辑。请参见媒体处理产品详情页面。 使用OSS 阿里云提供了Web服务页面,方便您管理对象存储OSS。您可以登录OSS管理控制台,操作存储空间和对象。关于管理控制台的操作,请参见控制台用户指南。 阿里云也提供了丰富的API接口和各种语言的SDK包,方便您灵活地管理对象存储OSS。请参见OSS API参考和OSS SDK参考。 OSS定价 传统的存储服务供应商会要求您购买预定量的存储和网络传输容量,如果超出此容量,就会关闭对应的服务或者收取高昂的超容量费用;如果没有超过此容量,又需要您按照全部容量支付费用。 对象存储OSS仅按照您的实际使用容量收费,您无需预先购买存储和流量容量,随着您业务的发展,您将享受到更多的基础设施成本优势。 关于对象存储OSS的价格,请参见OSS详细价格信息。关于OSS的计量计费方式,请参见OSS计量项和计费项。 学习路径图 您可以通过OSS产品学习路径图快速了解OSS,学习相关的基础操作,并利用丰富的API、SDK包和便捷工具进行二次开发。 视频

2019-12-01 23:12:03 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称 OSS),是阿里云提供的海量、安全、低成本、高可靠的云存储服务。它具有与平台无关的RESTful API接口,能够提供99.999999999%(11个9)的数据可靠性和99.99%的服务可用性。您可以在任何应用、任何时间、任何地点存储和访问任意类型的数据。 您可以使用阿里云提供的API、SDK接口或者OSS迁移工具轻松地将海量数据移入或移出阿里云OSS。数据存储到阿里云OSS以后,您可以选择标准类型(Standard)的阿里云OSS服务作为移动应用、大型网站、图片分享或热点音视频的主要存储方式,也可以选择成本更低、存储期限更长的低频访问类型(Infrequent Access)和归档类型(Archive)的阿里云OSS服务作为不经常访问数据的备份和归档。 相关概念 存储空间(Bucket) 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。您可以设置和修改存储空间属性用来控制地域、访问权限、生命周期等,这些属性设置直接作用于该存储空间内所有对象,因此您可以通过灵活创建不同的存储空间来完成不同的管理功能。 对象/文件(Object) 对象是 OSS 存储数据的基本单元,也被称为OSS的文件。对象由元信息(Object Meta),用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的Key来标识。对象元信息是一个键值对,表示了对象的一些属性,比如最后修改时间、大小等信息,同时您也可以在元信息中存储一些自定义的信息。 地域(Region) 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等综合选择数据存储的地域。详情请查看OSS已经开通的Region。 访问域名(Endpoint) Endpoint 表示OSS对外服务的访问域名。OSS以HTTP RESTful API的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个Region对应的Endpoint。 访问密钥(AccessKey) AccessKey,简称 AK,指的是访问身份验证中用到的AccessKeyId 和AccessKeySecret。OSS通过使用AccessKeyId 和AccessKeySecret对称加密的方法来验证某个请求的发送者身份。AccessKeyId用于标识用户,AccessKeySecret是用户用于加密签名字符串和OSS用来验证签名字符串的密钥,其中AccessKeySecret 必须保密。 相关服务 您把数据存储到OSS以后,就可以使用阿里云提供的其他产品和服务对其进行相关操作。 以下是您会经常使用到的阿里云产品和服务: 云服务器ECS:提供简单高效、处理能力可弹性伸缩的云端计算服务。请参见ECS产品详情页面。 内容分发网络CDN:将源站资源缓存到各区域的边缘节点,供您就近快速获取内容。请参见CDN产品详情页面。 E-MapReduce:构建于阿里云云服务器 ECS 上的大数据处理的系统解决方案,基于开源的 Apache Hadoop 和 Apache Spark,方便您分析和处理自己的数据。请参见E-MapReduce产品详情页面。 媒体处理:将存储于OSS的音视频转码成适合在PC、TV以及移动终端上播放的格式。并基于海量数据深度学习,对音视频的内容、文字、语音、场景多模态分析,实现智能审核、内容理解、智能编辑。请参见媒体处理产品详情页面。 使用OSS 阿里云提供了Web服务页面,方便您管理对象存储OSS。您可以登录OSS管理控制台,操作存储空间和对象。关于管理控制台的操作,请参见控制台用户指南。 阿里云也提供了丰富的API接口和各种语言的SDK包,方便您灵活地管理对象存储OSS。请参见OSS API参考和OSS SDK参考。 OSS定价 传统的存储服务供应商会要求您购买预定量的存储和网络传输容量,如果超出此容量,就会关闭对应的服务或者收取高昂的超容量费用;如果没有超过此容量,又需要您按照全部容量支付费用。 对象存储OSS仅按照您的实际使用容量收费,您无需预先购买存储和流量容量,随着您业务的发展,您将享受到更多的基础设施成本优势。 关于对象存储OSS的价格,请参见OSS详细价格信息。关于OSS的计量计费方式,请参见OSS计量项和计费项。 学习路径图 您可以通过OSS产品学习路径图快速了解OSS,学习相关的基础操作,并利用丰富的API、SDK包和便捷工具进行二次开发。 视频

2019-12-01 23:12:03 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称 OSS),是阿里云提供的海量、安全、低成本、高可靠的云存储服务。它具有与平台无关的RESTful API接口,能够提供99.999999999%(11个9)的数据可靠性和99.99%的服务可用性。您可以在任何应用、任何时间、任何地点存储和访问任意类型的数据。 您可以使用阿里云提供的API、SDK接口或者OSS迁移工具轻松地将海量数据移入或移出阿里云OSS。数据存储到阿里云OSS以后,您可以选择标准类型(Standard)的阿里云OSS服务作为移动应用、大型网站、图片分享或热点音视频的主要存储方式,也可以选择成本更低、存储期限更长的低频访问类型(Infrequent Access)和归档类型(Archive)的阿里云OSS服务作为不经常访问数据的备份和归档。 相关概念 存储空间(Bucket) 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。您可以设置和修改存储空间属性用来控制地域、访问权限、生命周期等,这些属性设置直接作用于该存储空间内所有对象,因此您可以通过灵活创建不同的存储空间来完成不同的管理功能。 对象/文件(Object) 对象是 OSS 存储数据的基本单元,也被称为OSS的文件。对象由元信息(Object Meta),用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的Key来标识。对象元信息是一个键值对,表示了对象的一些属性,比如最后修改时间、大小等信息,同时您也可以在元信息中存储一些自定义的信息。 地域(Region) 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等综合选择数据存储的地域。详情请查看OSS已经开通的Region。 访问域名(Endpoint) Endpoint 表示OSS对外服务的访问域名。OSS以HTTP RESTful API的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个Region对应的Endpoint。 访问密钥(AccessKey) AccessKey,简称 AK,指的是访问身份验证中用到的AccessKeyId 和AccessKeySecret。OSS通过使用AccessKeyId 和AccessKeySecret对称加密的方法来验证某个请求的发送者身份。AccessKeyId用于标识用户,AccessKeySecret是用户用于加密签名字符串和OSS用来验证签名字符串的密钥,其中AccessKeySecret 必须保密。 相关服务 您把数据存储到OSS以后,就可以使用阿里云提供的其他产品和服务对其进行相关操作。 以下是您会经常使用到的阿里云产品和服务: 云服务器ECS:提供简单高效、处理能力可弹性伸缩的云端计算服务。请参见ECS产品详情页面。 内容分发网络CDN:将源站资源缓存到各区域的边缘节点,供您就近快速获取内容。请参见CDN产品详情页面。 E-MapReduce:构建于阿里云云服务器 ECS 上的大数据处理的系统解决方案,基于开源的 Apache Hadoop 和 Apache Spark,方便您分析和处理自己的数据。请参见E-MapReduce产品详情页面。 媒体处理:将存储于OSS的音视频转码成适合在PC、TV以及移动终端上播放的格式。并基于海量数据深度学习,对音视频的内容、文字、语音、场景多模态分析,实现智能审核、内容理解、智能编辑。请参见媒体处理产品详情页面。 使用OSS 阿里云提供了Web服务页面,方便您管理对象存储OSS。您可以登录OSS管理控制台,操作存储空间和对象。关于管理控制台的操作,请参见控制台用户指南。 阿里云也提供了丰富的API接口和各种语言的SDK包,方便您灵活地管理对象存储OSS。请参见OSS API参考和OSS SDK参考。 OSS定价 传统的存储服务供应商会要求您购买预定量的存储和网络传输容量,如果超出此容量,就会关闭对应的服务或者收取高昂的超容量费用;如果没有超过此容量,又需要您按照全部容量支付费用。 对象存储OSS仅按照您的实际使用容量收费,您无需预先购买存储和流量容量,随着您业务的发展,您将享受到更多的基础设施成本优势。 关于对象存储OSS的价格,请参见OSS详细价格信息。关于OSS的计量计费方式,请参见OSS计量项和计费项。 学习路径图 您可以通过OSS产品学习路径图快速了解OSS,学习相关的基础操作,并利用丰富的API、SDK包和便捷工具进行二次开发。 视频

2019-12-01 23:12:03 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称 OSS),是阿里云提供的海量、安全、低成本、高可靠的云存储服务。它具有与平台无关的RESTful API接口,能够提供99.999999999%(11个9)的数据可靠性和99.99%的服务可用性。您可以在任何应用、任何时间、任何地点存储和访问任意类型的数据。 您可以使用阿里云提供的API、SDK接口或者OSS迁移工具轻松地将海量数据移入或移出阿里云OSS。数据存储到阿里云OSS以后,您可以选择标准类型(Standard)的阿里云OSS服务作为移动应用、大型网站、图片分享或热点音视频的主要存储方式,也可以选择成本更低、存储期限更长的低频访问类型(Infrequent Access)和归档类型(Archive)的阿里云OSS服务作为不经常访问数据的备份和归档。 相关概念 存储空间(Bucket) 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。您可以设置和修改存储空间属性用来控制地域、访问权限、生命周期等,这些属性设置直接作用于该存储空间内所有对象,因此您可以通过灵活创建不同的存储空间来完成不同的管理功能。 对象/文件(Object) 对象是 OSS 存储数据的基本单元,也被称为OSS的文件。对象由元信息(Object Meta),用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的Key来标识。对象元信息是一个键值对,表示了对象的一些属性,比如最后修改时间、大小等信息,同时您也可以在元信息中存储一些自定义的信息。 地域(Region) 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等综合选择数据存储的地域。详情请查看OSS已经开通的Region。 访问域名(Endpoint) Endpoint 表示OSS对外服务的访问域名。OSS以HTTP RESTful API的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个Region对应的Endpoint。 访问密钥(AccessKey) AccessKey,简称 AK,指的是访问身份验证中用到的AccessKeyId 和AccessKeySecret。OSS通过使用AccessKeyId 和AccessKeySecret对称加密的方法来验证某个请求的发送者身份。AccessKeyId用于标识用户,AccessKeySecret是用户用于加密签名字符串和OSS用来验证签名字符串的密钥,其中AccessKeySecret 必须保密。 相关服务 您把数据存储到OSS以后,就可以使用阿里云提供的其他产品和服务对其进行相关操作。 以下是您会经常使用到的阿里云产品和服务: 云服务器ECS:提供简单高效、处理能力可弹性伸缩的云端计算服务。请参见ECS产品详情页面。 内容分发网络CDN:将源站资源缓存到各区域的边缘节点,供您就近快速获取内容。请参见CDN产品详情页面。 E-MapReduce:构建于阿里云云服务器 ECS 上的大数据处理的系统解决方案,基于开源的 Apache Hadoop 和 Apache Spark,方便您分析和处理自己的数据。请参见E-MapReduce产品详情页面。 媒体处理:将存储于OSS的音视频转码成适合在PC、TV以及移动终端上播放的格式。并基于海量数据深度学习,对音视频的内容、文字、语音、场景多模态分析,实现智能审核、内容理解、智能编辑。请参见媒体处理产品详情页面。 使用OSS 阿里云提供了Web服务页面,方便您管理对象存储OSS。您可以登录OSS管理控制台,操作存储空间和对象。关于管理控制台的操作,请参见控制台用户指南。 阿里云也提供了丰富的API接口和各种语言的SDK包,方便您灵活地管理对象存储OSS。请参见OSS API参考和OSS SDK参考。 OSS定价 传统的存储服务供应商会要求您购买预定量的存储和网络传输容量,如果超出此容量,就会关闭对应的服务或者收取高昂的超容量费用;如果没有超过此容量,又需要您按照全部容量支付费用。 对象存储OSS仅按照您的实际使用容量收费,您无需预先购买存储和流量容量,随着您业务的发展,您将享受到更多的基础设施成本优势。 关于对象存储OSS的价格,请参见OSS详细价格信息。关于OSS的计量计费方式,请参见OSS计量项和计费项。 学习路径图 您可以通过OSS产品学习路径图快速了解OSS,学习相关的基础操作,并利用丰富的API、SDK包和便捷工具进行二次开发。 视频

2019-12-01 23:12:03 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称 OSS),是阿里云提供的海量、安全、低成本、高可靠的云存储服务。它具有与平台无关的RESTful API接口,能够提供99.999999999%(11个9)的数据可靠性和99.99%的服务可用性。您可以在任何应用、任何时间、任何地点存储和访问任意类型的数据。 您可以使用阿里云提供的API、SDK接口或者OSS迁移工具轻松地将海量数据移入或移出阿里云OSS。数据存储到阿里云OSS以后,您可以选择标准类型(Standard)的阿里云OSS服务作为移动应用、大型网站、图片分享或热点音视频的主要存储方式,也可以选择成本更低、存储期限更长的低频访问类型(Infrequent Access)和归档类型(Archive)的阿里云OSS服务作为不经常访问数据的备份和归档。 相关概念 存储空间(Bucket) 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。您可以设置和修改存储空间属性用来控制地域、访问权限、生命周期等,这些属性设置直接作用于该存储空间内所有对象,因此您可以通过灵活创建不同的存储空间来完成不同的管理功能。 对象/文件(Object) 对象是 OSS 存储数据的基本单元,也被称为OSS的文件。对象由元信息(Object Meta),用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的Key来标识。对象元信息是一个键值对,表示了对象的一些属性,比如最后修改时间、大小等信息,同时您也可以在元信息中存储一些自定义的信息。 地域(Region) 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等综合选择数据存储的地域。详情请查看OSS已经开通的Region。 访问域名(Endpoint) Endpoint 表示OSS对外服务的访问域名。OSS以HTTP RESTful API的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个Region对应的Endpoint。 访问密钥(AccessKey) AccessKey,简称 AK,指的是访问身份验证中用到的AccessKeyId 和AccessKeySecret。OSS通过使用AccessKeyId 和AccessKeySecret对称加密的方法来验证某个请求的发送者身份。AccessKeyId用于标识用户,AccessKeySecret是用户用于加密签名字符串和OSS用来验证签名字符串的密钥,其中AccessKeySecret 必须保密。 相关服务 您把数据存储到OSS以后,就可以使用阿里云提供的其他产品和服务对其进行相关操作。 以下是您会经常使用到的阿里云产品和服务: 云服务器ECS:提供简单高效、处理能力可弹性伸缩的云端计算服务。请参见ECS产品详情页面。 内容分发网络CDN:将源站资源缓存到各区域的边缘节点,供您就近快速获取内容。请参见CDN产品详情页面。 E-MapReduce:构建于阿里云云服务器 ECS 上的大数据处理的系统解决方案,基于开源的 Apache Hadoop 和 Apache Spark,方便您分析和处理自己的数据。请参见E-MapReduce产品详情页面。 媒体处理:将存储于OSS的音视频转码成适合在PC、TV以及移动终端上播放的格式。并基于海量数据深度学习,对音视频的内容、文字、语音、场景多模态分析,实现智能审核、内容理解、智能编辑。请参见媒体处理产品详情页面。 使用OSS 阿里云提供了Web服务页面,方便您管理对象存储OSS。您可以登录OSS管理控制台,操作存储空间和对象。关于管理控制台的操作,请参见控制台用户指南。 阿里云也提供了丰富的API接口和各种语言的SDK包,方便您灵活地管理对象存储OSS。请参见OSS API参考和OSS SDK参考。 OSS定价 传统的存储服务供应商会要求您购买预定量的存储和网络传输容量,如果超出此容量,就会关闭对应的服务或者收取高昂的超容量费用;如果没有超过此容量,又需要您按照全部容量支付费用。 对象存储OSS仅按照您的实际使用容量收费,您无需预先购买存储和流量容量,随着您业务的发展,您将享受到更多的基础设施成本优势。 关于对象存储OSS的价格,请参见OSS详细价格信息。关于OSS的计量计费方式,请参见OSS计量项和计费项。 学习路径图 您可以通过OSS产品学习路径图快速了解OSS,学习相关的基础操作,并利用丰富的API、SDK包和便捷工具进行二次开发。 视频

2019-12-01 23:12:02 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称 OSS),是阿里云提供的海量、安全、低成本、高可靠的云存储服务。它具有与平台无关的RESTful API接口,能够提供99.999999999%(11个9)的数据可靠性和99.99%的服务可用性。您可以在任何应用、任何时间、任何地点存储和访问任意类型的数据。 您可以使用阿里云提供的API、SDK接口或者OSS迁移工具轻松地将海量数据移入或移出阿里云OSS。数据存储到阿里云OSS以后,您可以选择标准类型(Standard)的阿里云OSS服务作为移动应用、大型网站、图片分享或热点音视频的主要存储方式,也可以选择成本更低、存储期限更长的低频访问类型(Infrequent Access)和归档类型(Archive)的阿里云OSS服务作为不经常访问数据的备份和归档。 相关概念 存储空间(Bucket) 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。您可以设置和修改存储空间属性用来控制地域、访问权限、生命周期等,这些属性设置直接作用于该存储空间内所有对象,因此您可以通过灵活创建不同的存储空间来完成不同的管理功能。 对象/文件(Object) 对象是 OSS 存储数据的基本单元,也被称为OSS的文件。对象由元信息(Object Meta),用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的Key来标识。对象元信息是一个键值对,表示了对象的一些属性,比如最后修改时间、大小等信息,同时您也可以在元信息中存储一些自定义的信息。 地域(Region) 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等综合选择数据存储的地域。详情请查看OSS已经开通的Region。 访问域名(Endpoint) Endpoint 表示OSS对外服务的访问域名。OSS以HTTP RESTful API的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个Region对应的Endpoint。 访问密钥(AccessKey) AccessKey,简称 AK,指的是访问身份验证中用到的AccessKeyId 和AccessKeySecret。OSS通过使用AccessKeyId 和AccessKeySecret对称加密的方法来验证某个请求的发送者身份。AccessKeyId用于标识用户,AccessKeySecret是用户用于加密签名字符串和OSS用来验证签名字符串的密钥,其中AccessKeySecret 必须保密。 相关服务 您把数据存储到OSS以后,就可以使用阿里云提供的其他产品和服务对其进行相关操作。 以下是您会经常使用到的阿里云产品和服务: 云服务器ECS:提供简单高效、处理能力可弹性伸缩的云端计算服务。请参见ECS产品详情页面。 内容分发网络CDN:将源站资源缓存到各区域的边缘节点,供您就近快速获取内容。请参见CDN产品详情页面。 E-MapReduce:构建于阿里云云服务器 ECS 上的大数据处理的系统解决方案,基于开源的 Apache Hadoop 和 Apache Spark,方便您分析和处理自己的数据。请参见E-MapReduce产品详情页面。 媒体处理:将存储于OSS的音视频转码成适合在PC、TV以及移动终端上播放的格式。并基于海量数据深度学习,对音视频的内容、文字、语音、场景多模态分析,实现智能审核、内容理解、智能编辑。请参见媒体处理产品详情页面。 使用OSS 阿里云提供了Web服务页面,方便您管理对象存储OSS。您可以登录OSS管理控制台,操作存储空间和对象。关于管理控制台的操作,请参见控制台用户指南。 阿里云也提供了丰富的API接口和各种语言的SDK包,方便您灵活地管理对象存储OSS。请参见OSS API参考和OSS SDK参考。 OSS定价 传统的存储服务供应商会要求您购买预定量的存储和网络传输容量,如果超出此容量,就会关闭对应的服务或者收取高昂的超容量费用;如果没有超过此容量,又需要您按照全部容量支付费用。 对象存储OSS仅按照您的实际使用容量收费,您无需预先购买存储和流量容量,随着您业务的发展,您将享受到更多的基础设施成本优势。 关于对象存储OSS的价格,请参见OSS详细价格信息。关于OSS的计量计费方式,请参见OSS计量项和计费项。 学习路径图 您可以通过OSS产品学习路径图快速了解OSS,学习相关的基础操作,并利用丰富的API、SDK包和便捷工具进行二次开发。 视频

2019-12-01 23:12:02 0 浏览量 回答数 0

回答

1、 Visitor pattern访问者被称为行为模式,因为它用于管理对象之间的算法,关系和责任。 “原始四人帮”中关于DesignPatterns的书中提供的访客定义指出:允许在运行时将一个或多个操作应用于一组对象,从而将操作与对象结构分离。2、访问者模式实际上做的是创建一个使用其他类中的数据的外部类。 如果需要跨一组dispate对象执行操作,则Visitor可能是您的模式。 GoF书中说,访客模式可以为类提供额外的功能而无需更改。3、主要是实际的数据结构与最后的数据操作对象分离,实际的访问者各自可以定义自己的逻辑代码。

徐雷frank 2019-12-02 01:49:10 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称OSS),是阿里云对外提供的海量、安全、低成本、高可靠的云存储服务。您可以通过本文档提供的简单的REST接口,在任何时间、任何地点、任何互联网设备上进行上传和下载数据。基于OSS,您可以搭建出各种多媒体分享网站、网盘、个人和企业数据备份等基于大规模数据的服务。 使用限制 您使用的OSS资源和相关功能,都有一定的限制,具体请参见OSS使用限制。 使用说明 OSS API参考主要介绍接口的请求语法、相关参数含义以及请求和返回示例。如果要快速进行二次开发,建议您使用SDK开发包。关于SDK的安装和使用,请参见OSS SDK参考。 OSS定价 关于OSS的价格,请参见OSS详细价格信息。关于OSS的计量计费方式,请参见OSS计量项和计费项。 资源术语 中文 英文 说明 存储空间 Bucket 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。 对象/文件 Object 对象是 OSS 存储数据的基本单元,也被称为OSS的文件。对象由元信息(Object Meta)、用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的Key来标识。 地域 Region 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等综合选择数据存储的地域。详情请查看OSS已经开通的Region。 访问域名 Endpoint Endpoint 表示OSS对外服务的访问域名。OSS以HTTP RESTful API的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个Region对应的Endpoint。 访问密钥 AccessKey AccessKey,简称 AK,指的是访问身份验证中用到的AccessKeyId 和AccessKeySecret。OSS通过使用AccessKeyId 和AccessKeySecret对称加密的方法来验证某个请求的发送者身份。AccessKeyId用于标识用户,AccessKeySecret是用户用于加密签名字符串和OSS用来验证签名字符串的密钥,其中AccessKeySecret 必须保密。

2019-12-01 23:13:41 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称OSS),是阿里云对外提供的海量、安全、低成本、高可靠的云存储服务。您可以通过本文档提供的简单的REST接口,在任何时间、任何地点、任何互联网设备上进行上传和下载数据。基于OSS,您可以搭建出各种多媒体分享网站、网盘、个人和企业数据备份等基于大规模数据的服务。 使用限制 您使用的OSS资源和相关功能,都有一定的限制,具体请参见OSS使用限制。 使用说明 OSS API参考主要介绍接口的请求语法、相关参数含义以及请求和返回示例。如果要快速进行二次开发,建议您使用SDK开发包。关于SDK的安装和使用,请参见OSS SDK参考。 OSS定价 关于OSS的价格,请参见OSS详细价格信息。关于OSS的计量计费方式,请参见OSS计量项和计费项。 资源术语 中文 英文 说明 存储空间 Bucket 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。 对象/文件 Object 对象是 OSS 存储数据的基本单元,也被称为OSS的文件。对象由元信息(Object Meta)、用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的Key来标识。 地域 Region 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等综合选择数据存储的地域。详情请查看OSS已经开通的Region。 访问域名 Endpoint Endpoint 表示OSS对外服务的访问域名。OSS以HTTP RESTful API的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个Region对应的Endpoint。 访问密钥 AccessKey AccessKey,简称 AK,指的是访问身份验证中用到的AccessKeyId 和AccessKeySecret。OSS通过使用AccessKeyId 和AccessKeySecret对称加密的方法来验证某个请求的发送者身份。AccessKeyId用于标识用户,AccessKeySecret是用户用于加密签名字符串和OSS用来验证签名字符串的密钥,其中AccessKeySecret 必须保密。

2019-12-01 23:13:41 0 浏览量 回答数 0

问题

权限管理

反向一觉 2019-12-01 21:05:45 1249 浏览量 回答数 0

回答

每一次连接都是新进程, 你生成的变量被销毁了。  类似php这些变量都存在于一次连接中,因为都是局部变量.如果是在第二次连接中,这些变量是不存在的. 多看书,嗯。求指教 @A定义的是什么类型,正常应该是游标,用游标不能用select,用循环遍历 @B拼接出来是个字符串,你查询字符串想查出什么?数据库对象和字符串对象分开;在数据库编程里面字符串就是字符串,数据库对象就是数据库对象,你可以给数据库对象重命名,但不能认为from后面跟一个字符串是合理的@A变量定义的是一个数据库的名称.在使用set的时候不必指定类型吧,然后通过@A访问到该数据库中表的数据.@B拼接出来是该数据库中的表(类似于mysql.user),在通过该字符串,访问到该库中表的内容.我这中想法,是不是存在某种问题.

爱吃鱼的程序员 2020-06-08 14:12:04 0 浏览量 回答数 0

问题

javascript 对象之间的关系处理

a123456678 2019-12-01 20:19:26 829 浏览量 回答数 1

回答

get和load,一个是直接加载,并不是直接去数据库查询,如果缓存里有,首先到缓存里找,缓存分为一级缓存和二级缓存,首先到一级缓存中查找;如果在session关闭之后进行获取类的名字之类的属性,依然会获取到,例:Order od = (Order) session.get(Order.class, 1);通过get获取的Order类是一个持久化类,如果session关闭之后进行获取,od.getName,它就会变成托管状态,但是这个对象还是有的,所以没事;另一个是懒加载,他不会直接进行操作,就是除了获取id(标识符)和类.class时,获取其他的类属性都会进行操作,例:Account acc=(Account)session.load(Account.class,new Long(1)); //返回一个代理对象System.out.println(acc.getId);System.out.prontln(acc.getLonginName());这里的1是一个代理对象,如果只获取他的id,则不会加载,不会出现select语句,只有获取除他和本身之外才会进行查找;否则访问的只是他的代理对象而已;如果需要取消懒加载,就只需要在你想获取的类属性的映射文件的把他改为false就可以了,这样懒加载就取消了,这里只对load管用,对get()毫无影响;如果把他System.out.prontln(acc.getLonginName());放在session关闭之后,则会出现错误,因为这里只产生了一个代理对象,没有真正去查,把session关之后,他会去查数据库,要发出sql语句,因为发出sql语句需要在session里面,所以session关了之后,就不能使用了;接下来说一说他们之间的区别,延迟加载的过程:通过代理(Proxy)机制来实现延迟加载。Hibernate从数据库获取某一个对象数据时、获取某一个对象的集合属性值时,或获取某一个对象所关联的另一个对象时,由于没有使用该对象的数据(除标识符外),Hibernate并不从数据库加载真正的数据,而只是为该对象创建一个代理对象来代表这个对象,这个对象上的所有属性都为默认值;只有在真正需要使用该对象的数据时才创建这个真正的对象,真正从数据库中加载它的数据。如果只是访问对象标示符属性,就没有必要初始化代码。Account acc=(Account)session.load(Account.class,new Long(1)); //返回一个代理对象 Order order=new Order(); order.setCreateTime(new Date()); order.setAccount(acc); Session.save(order);在这只需要Account实例来创建一个新的Order订单对象,当调用session.save(order)时,也只需要Account的主标示符值作为外键保存到订单表的对应字段中。这样就少执行一条select语句,从而提高查询效率。Hibernate中默认采用延迟加载的情况主要有以下几种:当调用Session上的load()方法加载一个实体时,会采用延迟加载。当Session加载某个实体时,会对这个实体中的集合属性值采用延迟加载。(one-to-many)例:当Client这个类里具有集合属性,Client client = (Client) session.get(Client.class, 4);System.out.println(client.getName());获取他的名字,你会发现只有一条sql语句,因为采用了延迟加载,所以如果想取消,就在该映射文件下里面把lazy改成false;当Session加载某个实体时,会对这个实体所单端关联(one-to-one, many-to-one)的另一个实体对象采用延迟加载。能够懒加载的对象都是被改写过的代理对象,当相关联的session没有关闭时,访问这些懒加载对象(代理对象)的属性(getId和getClass除外)hibernate会初始化这些代理,或用Hibernate.initialize(proxy)来初始化代理对象;当相关联的session关闭后,再访问懒加载的对象将出现异常。2、 关闭延迟加载在加载单个实体时,如果不需要延迟加载,就可以使用session的get()方法。当Session加载某个实体时,不需要对这个实体中的集合属性值延迟加载,而是要立即加载。这时可以在映射文件中针对 这个集合属性的配置元素(,,…)添加属性lazy=“false”。当Session加载某个实体时,不需要对这个实体所单端关联的另一个实体对象延迟加载,就可以在映射文件中对这个单端关联的配置元素(, )添加属性lazy=“false”。注意:one-to-one不能有constrained=true如果回答对您有帮助,请采纳

小旋风柴进 2019-12-02 02:11:32 0 浏览量 回答数 0

回答

您需要以某种方式保存数据以检索它。这是一个非常抽象的问题,有很多方法可以实现它。但要回答你的问题:如何访问之前的调试?你不能,代码被执行,没有什么可以“访问”。更具体地说,付费方式中的付款对象。这是正确的问题。在您当前的代码中,付款变量将分配给付款对象。但是在函数完成后,python的垃圾收集将从内存中删除对象,因为它的最后一个引用不再附加到任何活动范围。如果要访问该对象,则需要在其中创建对象的引用,该引用self是对象的实例。因此,一种解决方案是拥有self被调用的属性payments,这是一个列表,附加到新的付款。但是,您将从pay中丢失date参数,因此您可能希望将其作为dict使用日期作为键或dicts数组。或任何数量的其他数据结构。所以在初始化中,你会有类似的东西self.payments = [],并付出类似的东西self.payments.append((pay, date)),我会让你弄清楚你想如何总结列表中的数据。

一码平川MACHEL 2019-12-02 01:54:16 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档使用 数据传输服务 DTS 可以将本地 SQL Server 数据库实例的数据迁移到 RDS for SQL Server 实例。SQL Server 迁移支持增量数据同步功能,可以实现在本地应用不停服的情况下,平滑完成 SQL Server 数据库的迁移工作。 本小节简单介绍使用数据传输服务 DTS(以下简称 DTS) 进行 SQL Server->RDS for SQL Server 数据迁移的任务配置流程。 迁移类型对于 SQL Server->RDS for SQL Server 数据迁移,DTS 支持结构迁移、全量数据迁移及增量数据迁移,这个迁移类型的功能及限制如下: 结构迁移 DTS 将迁移对象的结构定义迁移到目标实例。目前 DTS 支持结构迁移的对象有:表、视图、表触发器、同义词、SQL 存储过程、SQL 函数、plan guid、自定义类型、rule、default。 全量数据迁移 全量迁移将 SQL Server 实例的存量数据全部迁移到目标 RDS 实例。如果您只进行全量数据迁移,那么迁移过程中本地 SQL Server 数据库实例新增的业务写入不会被同步到目标 RDS 实例。 如果您还选择了增量数据迁移,那么迁移过程中,本地 SQL Server 数据库实例的增量写入数据会被同步到目标 RDS 实例。 迁移限制 当前 SQL Server 结构迁移和全量数据迁移支持 SQL Server 2005,2008,2008 R2,2012 和 2016 版本,增量数据迁移支持 SQL Server 2008,2008 R2,2012 和 2014 版本。如果迁移的对象使用了对象名映射功能,则有一定几率导致依赖该对象的其他对象迁移失败。不支持 sql_variant 数据类型。结构迁移不支持 assemblies、库级存储过程、service broker、全文索引、全文目录、分布式 schema、分布式函数、CLR 标量函数、CLR 标值函数、内部表、聚合函数、系统的迁移。如果使用结构迁移 + 全量数据迁移 + 增量数据迁移,在结构迁移开始后,增量数据迁移开始前,请不要对迁移涉及的对象进行 DDL 操作,否则有一定几率会导致迁移失败。增量迁移的限制如下: 有限支持 DDL 语句同步,具体支持的 DDL 语句请参考 增量数据迁移过程中支持同步的 DDL 操作 章节。只支持含有聚簇索引,且聚簇索引为主键或者唯一键的表。不支持只更新大字段的 update 语句的同步。不支持含有计算列的表。一个增量迁移任务只支持一个数据库的迁移。如果同时有多个数据库需要进行增量数据迁移,那么需要创建多个迁移任务。 增量数据迁移过程中支持同步的增量数据迁移过程中支持同步的 DDL 操作 增量迁移过程中支持同步的 DDL 操作及其限制条件(在括号内说明)包括: CREATE TABLE (不支持函数,分区,默认值)ALTER TABLE … ADD COLUMN (不支持默认值)ALTER TABLE … DROP COLUMNALTER TABLE … ALTER COLUMN (不支持默认值)CREATE INDEX (不支持 index 属性)SP_RENAME table_nameSP_RENAME column_name 迁移权限要求当使用 DTS 进行 SQL Server 迁移时,不同迁移类型,对本地 SQL Server 数据库实例及目标 RDS for SQL Server 实例的迁移账号权限要求如下: 迁移类型 结构迁移 全量迁移 增量迁移 本地 SQLServer 数据库实例 select select sysadmin 目的 RDS for SQL Server 实例 读写权限 读写权限 读写权限 迁移流程数据传输服务在进行 SQL Server 上云迁移时,为了解决对象间的依赖,提高迁移成功率。 结构对象及数据的迁移顺序如下: 进行结构对象 表、视图、同义词、自定义类型、rule、default、plan guid 的迁移。全量数据迁移。进行结构对象 SQL 存储过程、SQL 函数、触发器、外键 的迁移。增量数据迁移。 如果任务没有选择增量数据迁移,那么当全量数据迁移完成后,任务列表中的迁移进度为:结构迁移100%,全量迁移100%,迁移状态为“迁移中”。此时迁移任务正在进行步骤(3)中的对象的迁移。此时,请勿手动结束任务,否则会造成迁移数据丢失。待迁移状态显示为“迁移完成”后,表示全量数据迁移任务已经完成,这时可以安全地手动结束任务。 迁移任务配置下面详细介绍使用 DTS 将本地的 SQL Server 迁移到 RDS for SQL Server 的任务配置流程。 RDS 实例数据库创建在数据迁移过程中,如果待迁移的数据库在目标 RDS for SQL Server 实例中不存在,那么 DTS 自动会创建同名的数据库。但是对于如下两种情况,您需要在配置迁移任务之前,手动创建数据库。 数据库名称不符合:RDS 定义规范 (由小写字母、数字、下划线、中划线组成,字母开头,字母或数字结尾,最长 64 个字符)。待迁移数据库,在本地 SQL Server 数据库实例跟目标 RDS for SQL Server 实例中名称不同。 对于这两种情况,您需要在配置迁移任务之前,先在 RDS 控制台完成 RDS for SQL Server 实例中数据库的创建。具体参考 RDS 数据库创建流程 RDS 使用手册。 迁移账号创建迁移任务配置,需要提供本地 SQL Server 数据库实例及目标 RDS 实例的迁移账号。迁移账号所需权限详见上文的迁移权限要求。 如果本地 SQL Server 数据库实例的迁移账号尚未创建,那么您可以参考 SQL Server User 创建,创建满足权限要求的迁移账号。 如果目标 RDS for SQL Server 实例迁移账号尚未创建,那么您可以参考 RDS 账号创建流程,创建对目标 RDS for SQL Server 实例有读写权限的迁移账号。 其他准备工作如果您需要进行不停机迁移,那么还需要设置本地 SQL Server 数据库实例日志格式为 full。 如果本地 SQL Server 数据库实例的日志格式不为 full,那么需要通过下面两个步骤设置: 在源数据库执行: alter database database_name set recovery_model_desc=’full’, 其中 database_name 为需要迁移的数据库名。为了保证开启完整日志生效,需要在源数据库进行一次日志备份,在源数据库执行:BACKUP LOG database_name to DISK=backup_place WITH init , 其中 database_name 为待迁移的数据库名,backup_place 为备份文件存储的地址。 迁移任务配置当数据库、迁移账号都创建完成后,就可以开始配置迁移任务了。下面详细介绍下具体的配置步骤。 进入数据传输 DTS 控制台,点击右上角的创建迁移任务,开始任务配置。本地 SQL Server 数据库实例及目标 RDS for SQL Server 实例连接信息配置。 在这个步骤中,主要配置迁移任务名称,迁移源实例及目标实例连接信息。其中: 任务名称 默认情况下,DTS 为每个任务自动生成一个任务名称。任务名称没有唯一性要求,您可以修改这个名称,为任务配置一个具有业务意义的名称,便于后续的任务识别。 源实例连接信息 实例类型:选择 有公网 IP 的自建数据库 数据库类型:选择 SQL Server主机名或IP地址:配置本地 SQL Serever 数据库实例的访问地址,这个地址必须为公网访问方式端口:SQL Server 实例监听端口数据库账号:SQL Server 数据库实例访问账号数据库密码:上面指定的 SQL Server 访问账号对应的数据库实例密码 目标 RDS 实例连接信息 实例类型:选择 RDS 实例RDS 实例 ID: 配置迁移的目标 RDS for SQL Server 实例的实例 ID。 DTS 支持经典网络和 VPC 网络的 RDS 实例数据库账号:RDS for SQL Server 实例的连接账号数据库密码:上面指定的数据库账号对应的数据库实例密码 迁移对象及迁移类型配置。 迁移类型 DTS 支持结构迁移、全量数据迁移、增量数据迁移。 如果需要进行不停机迁移,那么需要选择:结构迁移+全量数据迁移+增量数据迁移。 如果只进行全量迁移,那么需要选择:结构迁移+全量数据迁移。 迁移对象 迁移对象,需要选择您要迁移的对象。迁移对象选择的粒度可以为:库、表、列三个粒度。默认情况下,对象迁移到 RDS 实例后,对象名跟本地 SQL Server 数据库实例一致。如果您迁移的对象在源实例跟目标实例上名称不同,那么需要使用 DTS 提供的对象名映射功能,详细使用方式可以参考库表列映射。 当配置完迁移对象及迁移类型后,即进入任务启动前的预检查步骤 预检查。 在迁移任务正式启动之前,会先进行前置预检查,只有预检查通过后,才能成功启动迁移。 如果预检查失败,那么可以点击具体检查项后的按钮,查看具体的失败详情,并根据失败原因修复后,重新进行预检查。 启动迁移任务。 当预检查通过后,可以启动迁移任务,任务启动后,可以到任务列表中查看任务具体的迁移状态及进度。 增量数据迁移是个动态同步的过程,所以建议在增量迁移达到无延迟状态时,在目标数据库上进行业务验证,如果验证成功,那么可以停掉迁移任务,然后将业务切换到目标数据库。 至此,完成将本地 SQL Server 数据库实例到 RDS for SQL Server 实例的数据迁移任务配置。

2019-12-01 23:09:42 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档使用 数据传输服务 DTS 可以将本地 SQL Server 数据库实例的数据迁移到 RDS for SQL Server 实例。SQL Server 迁移支持增量数据同步功能,可以实现在本地应用不停服的情况下,平滑完成 SQL Server 数据库的迁移工作。 本小节简单介绍使用数据传输服务 DTS(以下简称 DTS) 进行 SQL Server->RDS for SQL Server 数据迁移的任务配置流程。 迁移类型对于 SQL Server->RDS for SQL Server 数据迁移,DTS 支持结构迁移、全量数据迁移及增量数据迁移,这个迁移类型的功能及限制如下: 结构迁移 DTS 将迁移对象的结构定义迁移到目标实例。目前 DTS 支持结构迁移的对象有:表、视图、表触发器、同义词、SQL 存储过程、SQL 函数、plan guid、自定义类型、rule、default。 全量数据迁移 全量迁移将 SQL Server 实例的存量数据全部迁移到目标 RDS 实例。如果您只进行全量数据迁移,那么迁移过程中本地 SQL Server 数据库实例新增的业务写入不会被同步到目标 RDS 实例。 如果您还选择了增量数据迁移,那么迁移过程中,本地 SQL Server 数据库实例的增量写入数据会被同步到目标 RDS 实例。 迁移限制 当前 SQL Server 结构迁移和全量数据迁移支持 SQL Server 2005,2008,2008 R2,2012 和 2016 版本,增量数据迁移支持 SQL Server 2008,2008 R2,2012 和 2014 版本。如果迁移的对象使用了对象名映射功能,则有一定几率导致依赖该对象的其他对象迁移失败。不支持 sql_variant 数据类型。结构迁移不支持 assemblies、库级存储过程、service broker、全文索引、全文目录、分布式 schema、分布式函数、CLR 标量函数、CLR 标值函数、内部表、聚合函数、系统的迁移。如果使用结构迁移 + 全量数据迁移 + 增量数据迁移,在结构迁移开始后,增量数据迁移开始前,请不要对迁移涉及的对象进行 DDL 操作,否则有一定几率会导致迁移失败。增量迁移的限制如下: 有限支持 DDL 语句同步,具体支持的 DDL 语句请参考 增量数据迁移过程中支持同步的 DDL 操作 章节。只支持含有聚簇索引,且聚簇索引为主键或者唯一键的表。不支持只更新大字段的 update 语句的同步。不支持含有计算列的表。一个增量迁移任务只支持一个数据库的迁移。如果同时有多个数据库需要进行增量数据迁移,那么需要创建多个迁移任务。 增量数据迁移过程中支持同步的增量数据迁移过程中支持同步的 DDL 操作 增量迁移过程中支持同步的 DDL 操作及其限制条件(在括号内说明)包括: CREATE TABLE (不支持函数,分区,默认值)ALTER TABLE … ADD COLUMN (不支持默认值)ALTER TABLE … DROP COLUMNALTER TABLE … ALTER COLUMN (不支持默认值)CREATE INDEX (不支持 index 属性)SP_RENAME table_nameSP_RENAME column_name 迁移权限要求当使用 DTS 进行 SQL Server 迁移时,不同迁移类型,对本地 SQL Server 数据库实例及目标 RDS for SQL Server 实例的迁移账号权限要求如下: 迁移类型 结构迁移 全量迁移 增量迁移 本地 SQLServer 数据库实例 select select sysadmin 目的 RDS for SQL Server 实例 读写权限 读写权限 读写权限 迁移流程数据传输服务在进行 SQL Server 上云迁移时,为了解决对象间的依赖,提高迁移成功率。 结构对象及数据的迁移顺序如下: 进行结构对象 表、视图、同义词、自定义类型、rule、default、plan guid 的迁移。全量数据迁移。进行结构对象 SQL 存储过程、SQL 函数、触发器、外键 的迁移。增量数据迁移。 如果任务没有选择增量数据迁移,那么当全量数据迁移完成后,任务列表中的迁移进度为:结构迁移100%,全量迁移100%,迁移状态为“迁移中”。此时迁移任务正在进行步骤(3)中的对象的迁移。此时,请勿手动结束任务,否则会造成迁移数据丢失。待迁移状态显示为“迁移完成”后,表示全量数据迁移任务已经完成,这时可以安全地手动结束任务。 迁移任务配置下面详细介绍使用 DTS 将本地的 SQL Server 迁移到 RDS for SQL Server 的任务配置流程。 RDS 实例数据库创建在数据迁移过程中,如果待迁移的数据库在目标 RDS for SQL Server 实例中不存在,那么 DTS 自动会创建同名的数据库。但是对于如下两种情况,您需要在配置迁移任务之前,手动创建数据库。 数据库名称不符合:RDS 定义规范 (由小写字母、数字、下划线、中划线组成,字母开头,字母或数字结尾,最长 64 个字符)。待迁移数据库,在本地 SQL Server 数据库实例跟目标 RDS for SQL Server 实例中名称不同。 对于这两种情况,您需要在配置迁移任务之前,先在 RDS 控制台完成 RDS for SQL Server 实例中数据库的创建。具体参考 RDS 数据库创建流程 RDS 使用手册。 迁移账号创建迁移任务配置,需要提供本地 SQL Server 数据库实例及目标 RDS 实例的迁移账号。迁移账号所需权限详见上文的迁移权限要求。 如果本地 SQL Server 数据库实例的迁移账号尚未创建,那么您可以参考 SQL Server User 创建,创建满足权限要求的迁移账号。 如果目标 RDS for SQL Server 实例迁移账号尚未创建,那么您可以参考 RDS 账号创建流程,创建对目标 RDS for SQL Server 实例有读写权限的迁移账号。 其他准备工作如果您需要进行不停机迁移,那么还需要设置本地 SQL Server 数据库实例日志格式为 full。 如果本地 SQL Server 数据库实例的日志格式不为 full,那么需要通过下面两个步骤设置: 在源数据库执行: alter database database_name set recovery_model_desc=’full’, 其中 database_name 为需要迁移的数据库名。为了保证开启完整日志生效,需要在源数据库进行一次日志备份,在源数据库执行:BACKUP LOG database_name to DISK=backup_place WITH init , 其中 database_name 为待迁移的数据库名,backup_place 为备份文件存储的地址。 迁移任务配置当数据库、迁移账号都创建完成后,就可以开始配置迁移任务了。下面详细介绍下具体的配置步骤。 进入数据传输 DTS 控制台,点击右上角的创建迁移任务,开始任务配置。本地 SQL Server 数据库实例及目标 RDS for SQL Server 实例连接信息配置。 在这个步骤中,主要配置迁移任务名称,迁移源实例及目标实例连接信息。其中: 任务名称 默认情况下,DTS 为每个任务自动生成一个任务名称。任务名称没有唯一性要求,您可以修改这个名称,为任务配置一个具有业务意义的名称,便于后续的任务识别。 源实例连接信息 实例类型:选择 有公网 IP 的自建数据库 数据库类型:选择 SQL Server主机名或IP地址:配置本地 SQL Serever 数据库实例的访问地址,这个地址必须为公网访问方式端口:SQL Server 实例监听端口数据库账号:SQL Server 数据库实例访问账号数据库密码:上面指定的 SQL Server 访问账号对应的数据库实例密码 目标 RDS 实例连接信息 实例类型:选择 RDS 实例RDS 实例 ID: 配置迁移的目标 RDS for SQL Server 实例的实例 ID。 DTS 支持经典网络和 VPC 网络的 RDS 实例数据库账号:RDS for SQL Server 实例的连接账号数据库密码:上面指定的数据库账号对应的数据库实例密码 迁移对象及迁移类型配置。 迁移类型 DTS 支持结构迁移、全量数据迁移、增量数据迁移。 如果需要进行不停机迁移,那么需要选择:结构迁移+全量数据迁移+增量数据迁移。 如果只进行全量迁移,那么需要选择:结构迁移+全量数据迁移。 迁移对象 迁移对象,需要选择您要迁移的对象。迁移对象选择的粒度可以为:库、表、列三个粒度。默认情况下,对象迁移到 RDS 实例后,对象名跟本地 SQL Server 数据库实例一致。如果您迁移的对象在源实例跟目标实例上名称不同,那么需要使用 DTS 提供的对象名映射功能,详细使用方式可以参考库表列映射。 当配置完迁移对象及迁移类型后,即进入任务启动前的预检查步骤 预检查。 在迁移任务正式启动之前,会先进行前置预检查,只有预检查通过后,才能成功启动迁移。 如果预检查失败,那么可以点击具体检查项后的按钮,查看具体的失败详情,并根据失败原因修复后,重新进行预检查。 启动迁移任务。 当预检查通过后,可以启动迁移任务,任务启动后,可以到任务列表中查看任务具体的迁移状态及进度。 增量数据迁移是个动态同步的过程,所以建议在增量迁移达到无延迟状态时,在目标数据库上进行业务验证,如果验证成功,那么可以停掉迁移任务,然后将业务切换到目标数据库。 至此,完成将本地 SQL Server 数据库实例到 RDS for SQL Server 实例的数据迁移任务配置。

2019-12-01 23:09:42 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档使用 数据传输服务 DTS 可以将本地 SQL Server 数据库实例的数据迁移到 RDS for SQL Server 实例。SQL Server 迁移支持增量数据同步功能,可以实现在本地应用不停服的情况下,平滑完成 SQL Server 数据库的迁移工作。 本小节简单介绍使用数据传输服务 DTS(以下简称 DTS) 进行 SQL Server->RDS for SQL Server 数据迁移的任务配置流程。 迁移类型对于 SQL Server->RDS for SQL Server 数据迁移,DTS 支持结构迁移、全量数据迁移及增量数据迁移,这个迁移类型的功能及限制如下: 结构迁移 DTS 将迁移对象的结构定义迁移到目标实例。目前 DTS 支持结构迁移的对象有:表、视图、表触发器、同义词、SQL 存储过程、SQL 函数、plan guid、自定义类型、rule、default。 全量数据迁移 全量迁移将 SQL Server 实例的存量数据全部迁移到目标 RDS 实例。如果您只进行全量数据迁移,那么迁移过程中本地 SQL Server 数据库实例新增的业务写入不会被同步到目标 RDS 实例。 如果您还选择了增量数据迁移,那么迁移过程中,本地 SQL Server 数据库实例的增量写入数据会被同步到目标 RDS 实例。 迁移限制 当前 SQL Server 结构迁移和全量数据迁移支持 SQL Server 2005,2008,2008 R2,2012 和 2016 版本,增量数据迁移支持 SQL Server 2008,2008 R2,2012 和 2014 版本。如果迁移的对象使用了对象名映射功能,则有一定几率导致依赖该对象的其他对象迁移失败。不支持 sql_variant 数据类型。结构迁移不支持 assemblies、库级存储过程、service broker、全文索引、全文目录、分布式 schema、分布式函数、CLR 标量函数、CLR 标值函数、内部表、聚合函数、系统的迁移。如果使用结构迁移 + 全量数据迁移 + 增量数据迁移,在结构迁移开始后,增量数据迁移开始前,请不要对迁移涉及的对象进行 DDL 操作,否则有一定几率会导致迁移失败。增量迁移的限制如下: 有限支持 DDL 语句同步,具体支持的 DDL 语句请参考 增量数据迁移过程中支持同步的 DDL 操作 章节。只支持含有聚簇索引,且聚簇索引为主键或者唯一键的表。不支持只更新大字段的 update 语句的同步。不支持含有计算列的表。一个增量迁移任务只支持一个数据库的迁移。如果同时有多个数据库需要进行增量数据迁移,那么需要创建多个迁移任务。 增量数据迁移过程中支持同步的增量数据迁移过程中支持同步的 DDL 操作 增量迁移过程中支持同步的 DDL 操作及其限制条件(在括号内说明)包括: CREATE TABLE (不支持函数,分区,默认值)ALTER TABLE … ADD COLUMN (不支持默认值)ALTER TABLE … DROP COLUMNALTER TABLE … ALTER COLUMN (不支持默认值)CREATE INDEX (不支持 index 属性)SP_RENAME table_nameSP_RENAME column_name 迁移权限要求当使用 DTS 进行 SQL Server 迁移时,不同迁移类型,对本地 SQL Server 数据库实例及目标 RDS for SQL Server 实例的迁移账号权限要求如下: 迁移类型 结构迁移 全量迁移 增量迁移 本地 SQLServer 数据库实例 select select sysadmin 目的 RDS for SQL Server 实例 读写权限 读写权限 读写权限 迁移流程数据传输服务在进行 SQL Server 上云迁移时,为了解决对象间的依赖,提高迁移成功率。 结构对象及数据的迁移顺序如下: 进行结构对象 表、视图、同义词、自定义类型、rule、default、plan guid 的迁移。全量数据迁移。进行结构对象 SQL 存储过程、SQL 函数、触发器、外键 的迁移。增量数据迁移。 如果任务没有选择增量数据迁移,那么当全量数据迁移完成后,任务列表中的迁移进度为:结构迁移100%,全量迁移100%,迁移状态为“迁移中”。此时迁移任务正在进行步骤(3)中的对象的迁移。此时,请勿手动结束任务,否则会造成迁移数据丢失。待迁移状态显示为“迁移完成”后,表示全量数据迁移任务已经完成,这时可以安全地手动结束任务。 迁移任务配置下面详细介绍使用 DTS 将本地的 SQL Server 迁移到 RDS for SQL Server 的任务配置流程。 RDS 实例数据库创建在数据迁移过程中,如果待迁移的数据库在目标 RDS for SQL Server 实例中不存在,那么 DTS 自动会创建同名的数据库。但是对于如下两种情况,您需要在配置迁移任务之前,手动创建数据库。 数据库名称不符合:RDS 定义规范 (由小写字母、数字、下划线、中划线组成,字母开头,字母或数字结尾,最长 64 个字符)。待迁移数据库,在本地 SQL Server 数据库实例跟目标 RDS for SQL Server 实例中名称不同。 对于这两种情况,您需要在配置迁移任务之前,先在 RDS 控制台完成 RDS for SQL Server 实例中数据库的创建。具体参考 RDS 数据库创建流程 RDS 使用手册。 迁移账号创建迁移任务配置,需要提供本地 SQL Server 数据库实例及目标 RDS 实例的迁移账号。迁移账号所需权限详见上文的迁移权限要求。 如果本地 SQL Server 数据库实例的迁移账号尚未创建,那么您可以参考 SQL Server User 创建,创建满足权限要求的迁移账号。 如果目标 RDS for SQL Server 实例迁移账号尚未创建,那么您可以参考 RDS 账号创建流程,创建对目标 RDS for SQL Server 实例有读写权限的迁移账号。 其他准备工作如果您需要进行不停机迁移,那么还需要设置本地 SQL Server 数据库实例日志格式为 full。 如果本地 SQL Server 数据库实例的日志格式不为 full,那么需要通过下面两个步骤设置: 在源数据库执行: alter database database_name set recovery_model_desc=’full’, 其中 database_name 为需要迁移的数据库名。为了保证开启完整日志生效,需要在源数据库进行一次日志备份,在源数据库执行:BACKUP LOG database_name to DISK=backup_place WITH init , 其中 database_name 为待迁移的数据库名,backup_place 为备份文件存储的地址。 迁移任务配置当数据库、迁移账号都创建完成后,就可以开始配置迁移任务了。下面详细介绍下具体的配置步骤。 进入数据传输 DTS 控制台,点击右上角的创建迁移任务,开始任务配置。本地 SQL Server 数据库实例及目标 RDS for SQL Server 实例连接信息配置。 在这个步骤中,主要配置迁移任务名称,迁移源实例及目标实例连接信息。其中: 任务名称 默认情况下,DTS 为每个任务自动生成一个任务名称。任务名称没有唯一性要求,您可以修改这个名称,为任务配置一个具有业务意义的名称,便于后续的任务识别。 源实例连接信息 实例类型:选择 有公网 IP 的自建数据库 数据库类型:选择 SQL Server主机名或IP地址:配置本地 SQL Serever 数据库实例的访问地址,这个地址必须为公网访问方式端口:SQL Server 实例监听端口数据库账号:SQL Server 数据库实例访问账号数据库密码:上面指定的 SQL Server 访问账号对应的数据库实例密码 目标 RDS 实例连接信息 实例类型:选择 RDS 实例RDS 实例 ID: 配置迁移的目标 RDS for SQL Server 实例的实例 ID。 DTS 支持经典网络和 VPC 网络的 RDS 实例数据库账号:RDS for SQL Server 实例的连接账号数据库密码:上面指定的数据库账号对应的数据库实例密码 迁移对象及迁移类型配置。 迁移类型 DTS 支持结构迁移、全量数据迁移、增量数据迁移。 如果需要进行不停机迁移,那么需要选择:结构迁移+全量数据迁移+增量数据迁移。 如果只进行全量迁移,那么需要选择:结构迁移+全量数据迁移。 迁移对象 迁移对象,需要选择您要迁移的对象。迁移对象选择的粒度可以为:库、表、列三个粒度。默认情况下,对象迁移到 RDS 实例后,对象名跟本地 SQL Server 数据库实例一致。如果您迁移的对象在源实例跟目标实例上名称不同,那么需要使用 DTS 提供的对象名映射功能,详细使用方式可以参考库表列映射。 当配置完迁移对象及迁移类型后,即进入任务启动前的预检查步骤 预检查。 在迁移任务正式启动之前,会先进行前置预检查,只有预检查通过后,才能成功启动迁移。 如果预检查失败,那么可以点击具体检查项后的按钮,查看具体的失败详情,并根据失败原因修复后,重新进行预检查。 启动迁移任务。 当预检查通过后,可以启动迁移任务,任务启动后,可以到任务列表中查看任务具体的迁移状态及进度。 增量数据迁移是个动态同步的过程,所以建议在增量迁移达到无延迟状态时,在目标数据库上进行业务验证,如果验证成功,那么可以停掉迁移任务,然后将业务切换到目标数据库。 至此,完成将本地 SQL Server 数据库实例到 RDS for SQL Server 实例的数据迁移任务配置。

2019-12-01 23:09:43 0 浏览量 回答数 0

回答

云存储网关(Cloud Storage Gateway:简称CSG)是一款可以部署在用户本地数据中心和阿里云上的网关产品。它以阿里云对象存储(OSS)为后端存储,为云上和云下应用提供业界标准的文件服务(NFS和SMB)和块存储服务(iSCSI)。 云存储网关目前提供两种形态: 文件网关 文件网关将OSS Bucket的对象结构与NAS文件系统的目录/文件建立映射关系。用户通过标准的NFS和SMB协议即可读写指定OSS Bucket里的对象。并且利用本地存储空间作为热数据缓存,使用户在享受OSS Bucket海量空间的同时,保障数据访问的高性能。文件网关还高度兼容POSIX和第三方备份软件。如果是小文件的备份和共享读写场景,推荐使用标准型或基础型文件网关;如果对性能有一定要求或者同时有多个客户端访问数据的用户,推荐使用增强型/性能型文件网关。 块网关 块网关在OSS中创建存储卷,提供Internet小型计算机系统接口(iSCSI)协议访问。本地应用程序可将这些卷作为iSCSI目标进行访问。块网关提供两种模式:透传模式和缓存模式。透传模式可以将块卷数据切片同步上云,适用于专线等高速链路客户;缓存模式提供本地缓存盘进行读写加速,缓存数据异步上云,适用于期望本地快速访问但是上云链路慢的客户。 产品架构 云存储网关的云上服务和部署在客户数据中心的存储网关实例可以形成存储网关集群。通过这个集群,文件数据可以在云上集群和线下集群之间自由流动,帮助实现数据和业务的协同迁移,典型的场景有文件备份、数据分发和容灾。同时通过集群也可以实现在多个物理机房快速发布数据。 作为一个轻量级的存储网关,可在用户本地的数据中心部署,也可在阿里云上部署。 应用场景 文件网关 在本地存储有限的情况下搭建一个海量文件系统的文件存储服务。 将数据以对象形式存储在云端,但希望应用仍然以文件系统的方式访问文件而不需修改代码。 在多个数据中心,通过文件存储服务的方式访问共享文件夹。 块网关 通过备份软件备份数据到云上且备份软件支持iSCSI高效传输。 将视频流数据通过iSCSI访问方式导入存储卷上,实现云上存储。

1934890530796658 2020-03-31 11:08:46 0 浏览量 回答数 0

问题

OSS-介绍

青衫无名 2019-12-01 21:34:35 867 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 数据传输服务 DTS 提供的数据迁移功能,简单易用,只需 3 个步骤,即可完成整个迁移任务的配置。 本小节以 MySQL->RDS for MySQL 为例,详细介绍数据迁移任务的配置流程,其他存储引擎的配置流程类似。 前提条件 创建 RDS for MySQL 实例上的数据库 在数据迁移过程中,如果待迁移的数据库在目标 RDS for MySQL 实例中不存在,那么 DTS 自动会创建。但是对于如下两种情况,用户需要在配置迁移任务之前,手动创建数据库。 数据库名称不符合:RDS 定义规范 (由小写字母、数字、下划线、中划线组成,字母开头,字母或数字结尾,最长 64 个字符)待迁移数据库,在源 MySQL 实例,跟目标 RDS for MySQL 实例中名称不同 对于这两种情况,用户需要在配置迁移任务之前,先在 RDS 控制台完成数据库创建。具体参考 RDS 数据库创建流程。 创建迁移账号 创建迁移任务,需要提供源实例及目标 RDS for MySQL 实例的迁移账号。各种存储引擎具体需要的数据库权限,可以详细参考 数据传输服务 DTS 产品使用手册 的 用户指南-数据迁移 栏目中,针对不同数据库实例类型的具体数据迁移配置方式的介绍。 如果您的源 MySQL 实例迁移账号尚未创建,那么您可以参考 Grant 语法说明,创建满足权限要求的迁移账号。 如果您的目标 RDS for MySQL 实例迁移账号尚未创建,那么您可以参考 RDS 账号创建流程,创建待迁移数据库有读写权限的迁移账号。 操作步骤当数据库、迁移账号都创建完成后,就可以开始配置迁移任务了。下面详细介绍下具体的配置步骤。 进入数据传输 DTS 控制台,点击页面右上角 创建迁移任务 开始任务配置。配置迁移实例连接信息。 在这个步骤中,主要配置迁移任务名称,迁移源实例及目标实例连接信息。其中: 1) 任务名称 默认情况下,DTS 为每个任务自动生成一个任务名称,您可以修改这个名称,为任务配置一个具备业务意义的名称,便于后续的任务识别。 2) 源实例连接信息 因为本文档以 MySQL->RDS For MySQL 迁移为例,所以: 实例类型:有公网 IP 的自建数据库 数据库类型:MySQL 主机名或 IP 地址:MySQL 实例连接串 端口:MySQL 实例监听端口 账号:MySQL 实例访问账号 密码:上面指定的 MySQL 访问账号对应的密码 3) 目标 RDS for MySQL 实例连接信息 实例类型:RDS 实例 RDS 实例 ID: 选择需要迁移目标 RDS 实例 ID 数据库账号:RDS 实例的访问账号 数据库密码:上面指定的数据库账号对应的数据库密码 迁移对象及迁移类型配置。 在这个步骤中,需要配置迁移类型及迁移对象。其中: 1)迁移类型 迁移类型包括结构迁移、全量数据迁移及增量数据迁移。 如果要做全量迁移,那么选择结构迁移+全量数据迁移。 如果要做不停机迁移,那么选择结构迁移+全量数据迁移+增量数据迁移。 2) 迁移对象 迁移对象,需要选择您要迁移的对象。迁移对象选择的粒度可以为:库、表、列三个粒度。 默认情况下,迁移对象迁移到目标库后,对象名跟源库一致。如果您迁移的对象在源实例跟目标实例上名称不同,那么需要使用 DTS 提供的对象名映射功能,详细使用方式可以参考 库表列映射。 预检查。 在迁移任务正式启动之前,会先进行前置预检查,只有预检查通过后,才能成功启动迁移。具体的预检查内容详见 预检查简介。 如果预检查失败,那么可以点击具体检查项后的按钮,查看具体的失败详情,并根据失败原因修复后,重新进行预检查。 当点击查看后,可以查看到具体的预检查失败原因及修复方法: 当修复完成后,可以在任务列表中,选择这个任务,然后重新启动预检查。 启动迁移任务。 当预检查通过后,我们可以启动迁移任务,任务启动后,可以到任务列表中查看具体的迁移状态及进度。 以上为以 MySQL->RDS For MySQL 迁移为例,数据迁移任务完整的创建流程。其他的实例类型或者存储引擎的配置流程类似。详细的配置流程可以参考 数据传输服务 DTS 产品使用手册 的 用户指南-数据迁移 栏目中,针对不同数据库实例类型的具体数据迁移配置方式的介绍。

2019-12-01 23:09:38 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 数据传输服务 DTS 提供的数据迁移功能,简单易用,只需 3 个步骤,即可完成整个迁移任务的配置。 本小节以 MySQL->RDS for MySQL 为例,详细介绍数据迁移任务的配置流程,其他存储引擎的配置流程类似。 前提条件 创建 RDS for MySQL 实例上的数据库 在数据迁移过程中,如果待迁移的数据库在目标 RDS for MySQL 实例中不存在,那么 DTS 自动会创建。但是对于如下两种情况,用户需要在配置迁移任务之前,手动创建数据库。 数据库名称不符合:RDS 定义规范 (由小写字母、数字、下划线、中划线组成,字母开头,字母或数字结尾,最长 64 个字符)待迁移数据库,在源 MySQL 实例,跟目标 RDS for MySQL 实例中名称不同 对于这两种情况,用户需要在配置迁移任务之前,先在 RDS 控制台完成数据库创建。具体参考 RDS 数据库创建流程。 创建迁移账号 创建迁移任务,需要提供源实例及目标 RDS for MySQL 实例的迁移账号。各种存储引擎具体需要的数据库权限,可以详细参考 数据传输服务 DTS 产品使用手册 的 用户指南-数据迁移 栏目中,针对不同数据库实例类型的具体数据迁移配置方式的介绍。 如果您的源 MySQL 实例迁移账号尚未创建,那么您可以参考 Grant 语法说明,创建满足权限要求的迁移账号。 如果您的目标 RDS for MySQL 实例迁移账号尚未创建,那么您可以参考 RDS 账号创建流程,创建待迁移数据库有读写权限的迁移账号。 操作步骤当数据库、迁移账号都创建完成后,就可以开始配置迁移任务了。下面详细介绍下具体的配置步骤。 进入数据传输 DTS 控制台,点击页面右上角 创建迁移任务 开始任务配置。配置迁移实例连接信息。 在这个步骤中,主要配置迁移任务名称,迁移源实例及目标实例连接信息。其中: 1) 任务名称 默认情况下,DTS 为每个任务自动生成一个任务名称,您可以修改这个名称,为任务配置一个具备业务意义的名称,便于后续的任务识别。 2) 源实例连接信息 因为本文档以 MySQL->RDS For MySQL 迁移为例,所以: 实例类型:有公网 IP 的自建数据库 数据库类型:MySQL 主机名或 IP 地址:MySQL 实例连接串 端口:MySQL 实例监听端口 账号:MySQL 实例访问账号 密码:上面指定的 MySQL 访问账号对应的密码 3) 目标 RDS for MySQL 实例连接信息 实例类型:RDS 实例 RDS 实例 ID: 选择需要迁移目标 RDS 实例 ID 数据库账号:RDS 实例的访问账号 数据库密码:上面指定的数据库账号对应的数据库密码 迁移对象及迁移类型配置。 在这个步骤中,需要配置迁移类型及迁移对象。其中: 1)迁移类型 迁移类型包括结构迁移、全量数据迁移及增量数据迁移。 如果要做全量迁移,那么选择结构迁移+全量数据迁移。 如果要做不停机迁移,那么选择结构迁移+全量数据迁移+增量数据迁移。 2) 迁移对象 迁移对象,需要选择您要迁移的对象。迁移对象选择的粒度可以为:库、表、列三个粒度。 默认情况下,迁移对象迁移到目标库后,对象名跟源库一致。如果您迁移的对象在源实例跟目标实例上名称不同,那么需要使用 DTS 提供的对象名映射功能,详细使用方式可以参考 库表列映射。 预检查。 在迁移任务正式启动之前,会先进行前置预检查,只有预检查通过后,才能成功启动迁移。具体的预检查内容详见 预检查简介。 如果预检查失败,那么可以点击具体检查项后的按钮,查看具体的失败详情,并根据失败原因修复后,重新进行预检查。 当点击查看后,可以查看到具体的预检查失败原因及修复方法: 当修复完成后,可以在任务列表中,选择这个任务,然后重新启动预检查。 启动迁移任务。 当预检查通过后,我们可以启动迁移任务,任务启动后,可以到任务列表中查看具体的迁移状态及进度。 以上为以 MySQL->RDS For MySQL 迁移为例,数据迁移任务完整的创建流程。其他的实例类型或者存储引擎的配置流程类似。详细的配置流程可以参考 数据传输服务 DTS 产品使用手册 的 用户指南-数据迁移 栏目中,针对不同数据库实例类型的具体数据迁移配置方式的介绍。

2019-12-01 23:09:39 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 数据传输服务 DTS 提供的数据迁移功能,简单易用,只需 3 个步骤,即可完成整个迁移任务的配置。 本小节以 MySQL->RDS for MySQL 为例,详细介绍数据迁移任务的配置流程,其他存储引擎的配置流程类似。 前提条件 创建 RDS for MySQL 实例上的数据库 在数据迁移过程中,如果待迁移的数据库在目标 RDS for MySQL 实例中不存在,那么 DTS 自动会创建。但是对于如下两种情况,用户需要在配置迁移任务之前,手动创建数据库。 数据库名称不符合:RDS 定义规范 (由小写字母、数字、下划线、中划线组成,字母开头,字母或数字结尾,最长 64 个字符)待迁移数据库,在源 MySQL 实例,跟目标 RDS for MySQL 实例中名称不同 对于这两种情况,用户需要在配置迁移任务之前,先在 RDS 控制台完成数据库创建。具体参考 RDS 数据库创建流程。 创建迁移账号 创建迁移任务,需要提供源实例及目标 RDS for MySQL 实例的迁移账号。各种存储引擎具体需要的数据库权限,可以详细参考 数据传输服务 DTS 产品使用手册 的 用户指南-数据迁移 栏目中,针对不同数据库实例类型的具体数据迁移配置方式的介绍。 如果您的源 MySQL 实例迁移账号尚未创建,那么您可以参考 Grant 语法说明,创建满足权限要求的迁移账号。 如果您的目标 RDS for MySQL 实例迁移账号尚未创建,那么您可以参考 RDS 账号创建流程,创建待迁移数据库有读写权限的迁移账号。 操作步骤当数据库、迁移账号都创建完成后,就可以开始配置迁移任务了。下面详细介绍下具体的配置步骤。 进入数据传输 DTS 控制台,点击页面右上角 创建迁移任务 开始任务配置。配置迁移实例连接信息。 在这个步骤中,主要配置迁移任务名称,迁移源实例及目标实例连接信息。其中: 1) 任务名称 默认情况下,DTS 为每个任务自动生成一个任务名称,您可以修改这个名称,为任务配置一个具备业务意义的名称,便于后续的任务识别。 2) 源实例连接信息 因为本文档以 MySQL->RDS For MySQL 迁移为例,所以: 实例类型:有公网 IP 的自建数据库 数据库类型:MySQL 主机名或 IP 地址:MySQL 实例连接串 端口:MySQL 实例监听端口 账号:MySQL 实例访问账号 密码:上面指定的 MySQL 访问账号对应的密码 3) 目标 RDS for MySQL 实例连接信息 实例类型:RDS 实例 RDS 实例 ID: 选择需要迁移目标 RDS 实例 ID 数据库账号:RDS 实例的访问账号 数据库密码:上面指定的数据库账号对应的数据库密码 迁移对象及迁移类型配置。 在这个步骤中,需要配置迁移类型及迁移对象。其中: 1)迁移类型 迁移类型包括结构迁移、全量数据迁移及增量数据迁移。 如果要做全量迁移,那么选择结构迁移+全量数据迁移。 如果要做不停机迁移,那么选择结构迁移+全量数据迁移+增量数据迁移。 2) 迁移对象 迁移对象,需要选择您要迁移的对象。迁移对象选择的粒度可以为:库、表、列三个粒度。 默认情况下,迁移对象迁移到目标库后,对象名跟源库一致。如果您迁移的对象在源实例跟目标实例上名称不同,那么需要使用 DTS 提供的对象名映射功能,详细使用方式可以参考 库表列映射。 预检查。 在迁移任务正式启动之前,会先进行前置预检查,只有预检查通过后,才能成功启动迁移。具体的预检查内容详见 预检查简介。 如果预检查失败,那么可以点击具体检查项后的按钮,查看具体的失败详情,并根据失败原因修复后,重新进行预检查。 当点击查看后,可以查看到具体的预检查失败原因及修复方法: 当修复完成后,可以在任务列表中,选择这个任务,然后重新启动预检查。 启动迁移任务。 当预检查通过后,我们可以启动迁移任务,任务启动后,可以到任务列表中查看具体的迁移状态及进度。 以上为以 MySQL->RDS For MySQL 迁移为例,数据迁移任务完整的创建流程。其他的实例类型或者存储引擎的配置流程类似。详细的配置流程可以参考 数据传输服务 DTS 产品使用手册 的 用户指南-数据迁移 栏目中,针对不同数据库实例类型的具体数据迁移配置方式的介绍。

2019-12-01 23:09:38 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 数据传输服务 DTS 提供的数据迁移功能,简单易用,只需 3 个步骤,即可完成整个迁移任务的配置。 本小节以 MySQL->RDS for MySQL 为例,详细介绍数据迁移任务的配置流程,其他存储引擎的配置流程类似。 前提条件 创建 RDS for MySQL 实例上的数据库 在数据迁移过程中,如果待迁移的数据库在目标 RDS for MySQL 实例中不存在,那么 DTS 自动会创建。但是对于如下两种情况,用户需要在配置迁移任务之前,手动创建数据库。 数据库名称不符合:RDS 定义规范 (由小写字母、数字、下划线、中划线组成,字母开头,字母或数字结尾,最长 64 个字符)待迁移数据库,在源 MySQL 实例,跟目标 RDS for MySQL 实例中名称不同 对于这两种情况,用户需要在配置迁移任务之前,先在 RDS 控制台完成数据库创建。具体参考 RDS 数据库创建流程。 创建迁移账号 创建迁移任务,需要提供源实例及目标 RDS for MySQL 实例的迁移账号。各种存储引擎具体需要的数据库权限,可以详细参考 数据传输服务 DTS 产品使用手册 的 用户指南-数据迁移 栏目中,针对不同数据库实例类型的具体数据迁移配置方式的介绍。 如果您的源 MySQL 实例迁移账号尚未创建,那么您可以参考 Grant 语法说明,创建满足权限要求的迁移账号。 如果您的目标 RDS for MySQL 实例迁移账号尚未创建,那么您可以参考 RDS 账号创建流程,创建待迁移数据库有读写权限的迁移账号。 操作步骤当数据库、迁移账号都创建完成后,就可以开始配置迁移任务了。下面详细介绍下具体的配置步骤。 进入数据传输 DTS 控制台,点击页面右上角 创建迁移任务 开始任务配置。配置迁移实例连接信息。 在这个步骤中,主要配置迁移任务名称,迁移源实例及目标实例连接信息。其中: 1) 任务名称 默认情况下,DTS 为每个任务自动生成一个任务名称,您可以修改这个名称,为任务配置一个具备业务意义的名称,便于后续的任务识别。 2) 源实例连接信息 因为本文档以 MySQL->RDS For MySQL 迁移为例,所以: 实例类型:有公网 IP 的自建数据库 数据库类型:MySQL 主机名或 IP 地址:MySQL 实例连接串 端口:MySQL 实例监听端口 账号:MySQL 实例访问账号 密码:上面指定的 MySQL 访问账号对应的密码 3) 目标 RDS for MySQL 实例连接信息 实例类型:RDS 实例 RDS 实例 ID: 选择需要迁移目标 RDS 实例 ID 数据库账号:RDS 实例的访问账号 数据库密码:上面指定的数据库账号对应的数据库密码 迁移对象及迁移类型配置。 在这个步骤中,需要配置迁移类型及迁移对象。其中: 1)迁移类型 迁移类型包括结构迁移、全量数据迁移及增量数据迁移。 如果要做全量迁移,那么选择结构迁移+全量数据迁移。 如果要做不停机迁移,那么选择结构迁移+全量数据迁移+增量数据迁移。 2) 迁移对象 迁移对象,需要选择您要迁移的对象。迁移对象选择的粒度可以为:库、表、列三个粒度。 默认情况下,迁移对象迁移到目标库后,对象名跟源库一致。如果您迁移的对象在源实例跟目标实例上名称不同,那么需要使用 DTS 提供的对象名映射功能,详细使用方式可以参考 库表列映射。 预检查。 在迁移任务正式启动之前,会先进行前置预检查,只有预检查通过后,才能成功启动迁移。具体的预检查内容详见 预检查简介。 如果预检查失败,那么可以点击具体检查项后的按钮,查看具体的失败详情,并根据失败原因修复后,重新进行预检查。 当点击查看后,可以查看到具体的预检查失败原因及修复方法: 当修复完成后,可以在任务列表中,选择这个任务,然后重新启动预检查。 启动迁移任务。 当预检查通过后,我们可以启动迁移任务,任务启动后,可以到任务列表中查看具体的迁移状态及进度。 以上为以 MySQL->RDS For MySQL 迁移为例,数据迁移任务完整的创建流程。其他的实例类型或者存储引擎的配置流程类似。详细的配置流程可以参考 数据传输服务 DTS 产品使用手册 的 用户指南-数据迁移 栏目中,针对不同数据库实例类型的具体数据迁移配置方式的介绍。

2019-12-01 23:09:38 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 数据传输服务 DTS 提供的数据迁移功能,简单易用,只需 3 个步骤,即可完成整个迁移任务的配置。 本小节以 MySQL->RDS for MySQL 为例,详细介绍数据迁移任务的配置流程,其他存储引擎的配置流程类似。 前提条件 创建 RDS for MySQL 实例上的数据库 在数据迁移过程中,如果待迁移的数据库在目标 RDS for MySQL 实例中不存在,那么 DTS 自动会创建。但是对于如下两种情况,用户需要在配置迁移任务之前,手动创建数据库。 数据库名称不符合:RDS 定义规范 (由小写字母、数字、下划线、中划线组成,字母开头,字母或数字结尾,最长 64 个字符)待迁移数据库,在源 MySQL 实例,跟目标 RDS for MySQL 实例中名称不同 对于这两种情况,用户需要在配置迁移任务之前,先在 RDS 控制台完成数据库创建。具体参考 RDS 数据库创建流程。 创建迁移账号 创建迁移任务,需要提供源实例及目标 RDS for MySQL 实例的迁移账号。各种存储引擎具体需要的数据库权限,可以详细参考 数据传输服务 DTS 产品使用手册 的 用户指南-数据迁移 栏目中,针对不同数据库实例类型的具体数据迁移配置方式的介绍。 如果您的源 MySQL 实例迁移账号尚未创建,那么您可以参考 Grant 语法说明,创建满足权限要求的迁移账号。 如果您的目标 RDS for MySQL 实例迁移账号尚未创建,那么您可以参考 RDS 账号创建流程,创建待迁移数据库有读写权限的迁移账号。 操作步骤当数据库、迁移账号都创建完成后,就可以开始配置迁移任务了。下面详细介绍下具体的配置步骤。 进入数据传输 DTS 控制台,点击页面右上角 创建迁移任务 开始任务配置。配置迁移实例连接信息。 在这个步骤中,主要配置迁移任务名称,迁移源实例及目标实例连接信息。其中: 1) 任务名称 默认情况下,DTS 为每个任务自动生成一个任务名称,您可以修改这个名称,为任务配置一个具备业务意义的名称,便于后续的任务识别。 2) 源实例连接信息 因为本文档以 MySQL->RDS For MySQL 迁移为例,所以: 实例类型:有公网 IP 的自建数据库 数据库类型:MySQL 主机名或 IP 地址:MySQL 实例连接串 端口:MySQL 实例监听端口 账号:MySQL 实例访问账号 密码:上面指定的 MySQL 访问账号对应的密码 3) 目标 RDS for MySQL 实例连接信息 实例类型:RDS 实例 RDS 实例 ID: 选择需要迁移目标 RDS 实例 ID 数据库账号:RDS 实例的访问账号 数据库密码:上面指定的数据库账号对应的数据库密码 迁移对象及迁移类型配置。 在这个步骤中,需要配置迁移类型及迁移对象。其中: 1)迁移类型 迁移类型包括结构迁移、全量数据迁移及增量数据迁移。 如果要做全量迁移,那么选择结构迁移+全量数据迁移。 如果要做不停机迁移,那么选择结构迁移+全量数据迁移+增量数据迁移。 2) 迁移对象 迁移对象,需要选择您要迁移的对象。迁移对象选择的粒度可以为:库、表、列三个粒度。 默认情况下,迁移对象迁移到目标库后,对象名跟源库一致。如果您迁移的对象在源实例跟目标实例上名称不同,那么需要使用 DTS 提供的对象名映射功能,详细使用方式可以参考 库表列映射。 预检查。 在迁移任务正式启动之前,会先进行前置预检查,只有预检查通过后,才能成功启动迁移。具体的预检查内容详见 预检查简介。 如果预检查失败,那么可以点击具体检查项后的按钮,查看具体的失败详情,并根据失败原因修复后,重新进行预检查。 当点击查看后,可以查看到具体的预检查失败原因及修复方法: 当修复完成后,可以在任务列表中,选择这个任务,然后重新启动预检查。 启动迁移任务。 当预检查通过后,我们可以启动迁移任务,任务启动后,可以到任务列表中查看具体的迁移状态及进度。 以上为以 MySQL->RDS For MySQL 迁移为例,数据迁移任务完整的创建流程。其他的实例类型或者存储引擎的配置流程类似。详细的配置流程可以参考 数据传输服务 DTS 产品使用手册 的 用户指南-数据迁移 栏目中,针对不同数据库实例类型的具体数据迁移配置方式的介绍。

2019-12-01 23:09:39 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 数据传输服务 DTS 提供的数据迁移功能,简单易用,只需 3 个步骤,即可完成整个迁移任务的配置。 本小节以 MySQL->RDS for MySQL 为例,详细介绍数据迁移任务的配置流程,其他存储引擎的配置流程类似。 前提条件 创建 RDS for MySQL 实例上的数据库 在数据迁移过程中,如果待迁移的数据库在目标 RDS for MySQL 实例中不存在,那么 DTS 自动会创建。但是对于如下两种情况,用户需要在配置迁移任务之前,手动创建数据库。 数据库名称不符合:RDS 定义规范 (由小写字母、数字、下划线、中划线组成,字母开头,字母或数字结尾,最长 64 个字符)待迁移数据库,在源 MySQL 实例,跟目标 RDS for MySQL 实例中名称不同 对于这两种情况,用户需要在配置迁移任务之前,先在 RDS 控制台完成数据库创建。具体参考 RDS 数据库创建流程。 创建迁移账号 创建迁移任务,需要提供源实例及目标 RDS for MySQL 实例的迁移账号。各种存储引擎具体需要的数据库权限,可以详细参考 数据传输服务 DTS 产品使用手册 的 用户指南-数据迁移 栏目中,针对不同数据库实例类型的具体数据迁移配置方式的介绍。 如果您的源 MySQL 实例迁移账号尚未创建,那么您可以参考 Grant 语法说明,创建满足权限要求的迁移账号。 如果您的目标 RDS for MySQL 实例迁移账号尚未创建,那么您可以参考 RDS 账号创建流程,创建待迁移数据库有读写权限的迁移账号。 操作步骤当数据库、迁移账号都创建完成后,就可以开始配置迁移任务了。下面详细介绍下具体的配置步骤。 进入数据传输 DTS 控制台,点击页面右上角 创建迁移任务 开始任务配置。配置迁移实例连接信息。 在这个步骤中,主要配置迁移任务名称,迁移源实例及目标实例连接信息。其中: 1) 任务名称 默认情况下,DTS 为每个任务自动生成一个任务名称,您可以修改这个名称,为任务配置一个具备业务意义的名称,便于后续的任务识别。 2) 源实例连接信息 因为本文档以 MySQL->RDS For MySQL 迁移为例,所以: 实例类型:有公网 IP 的自建数据库 数据库类型:MySQL 主机名或 IP 地址:MySQL 实例连接串 端口:MySQL 实例监听端口 账号:MySQL 实例访问账号 密码:上面指定的 MySQL 访问账号对应的密码 3) 目标 RDS for MySQL 实例连接信息 实例类型:RDS 实例 RDS 实例 ID: 选择需要迁移目标 RDS 实例 ID 数据库账号:RDS 实例的访问账号 数据库密码:上面指定的数据库账号对应的数据库密码 迁移对象及迁移类型配置。 在这个步骤中,需要配置迁移类型及迁移对象。其中: 1)迁移类型 迁移类型包括结构迁移、全量数据迁移及增量数据迁移。 如果要做全量迁移,那么选择结构迁移+全量数据迁移。 如果要做不停机迁移,那么选择结构迁移+全量数据迁移+增量数据迁移。 2) 迁移对象 迁移对象,需要选择您要迁移的对象。迁移对象选择的粒度可以为:库、表、列三个粒度。 默认情况下,迁移对象迁移到目标库后,对象名跟源库一致。如果您迁移的对象在源实例跟目标实例上名称不同,那么需要使用 DTS 提供的对象名映射功能,详细使用方式可以参考 库表列映射。 预检查。 在迁移任务正式启动之前,会先进行前置预检查,只有预检查通过后,才能成功启动迁移。具体的预检查内容详见 预检查简介。 如果预检查失败,那么可以点击具体检查项后的按钮,查看具体的失败详情,并根据失败原因修复后,重新进行预检查。 当点击查看后,可以查看到具体的预检查失败原因及修复方法: 当修复完成后,可以在任务列表中,选择这个任务,然后重新启动预检查。 启动迁移任务。 当预检查通过后,我们可以启动迁移任务,任务启动后,可以到任务列表中查看具体的迁移状态及进度。 以上为以 MySQL->RDS For MySQL 迁移为例,数据迁移任务完整的创建流程。其他的实例类型或者存储引擎的配置流程类似。详细的配置流程可以参考 数据传输服务 DTS 产品使用手册 的 用户指南-数据迁移 栏目中,针对不同数据库实例类型的具体数据迁移配置方式的介绍。

2019-12-01 23:09:38 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 数据传输服务 DTS 提供的数据迁移功能,简单易用,只需 3 个步骤,即可完成整个迁移任务的配置。 本小节以 MySQL->RDS for MySQL 为例,详细介绍数据迁移任务的配置流程,其他存储引擎的配置流程类似。 前提条件 创建 RDS for MySQL 实例上的数据库 在数据迁移过程中,如果待迁移的数据库在目标 RDS for MySQL 实例中不存在,那么 DTS 自动会创建。但是对于如下两种情况,用户需要在配置迁移任务之前,手动创建数据库。 数据库名称不符合:RDS 定义规范 (由小写字母、数字、下划线、中划线组成,字母开头,字母或数字结尾,最长 64 个字符)待迁移数据库,在源 MySQL 实例,跟目标 RDS for MySQL 实例中名称不同 对于这两种情况,用户需要在配置迁移任务之前,先在 RDS 控制台完成数据库创建。具体参考 RDS 数据库创建流程。 创建迁移账号 创建迁移任务,需要提供源实例及目标 RDS for MySQL 实例的迁移账号。各种存储引擎具体需要的数据库权限,可以详细参考 数据传输服务 DTS 产品使用手册 的 用户指南-数据迁移 栏目中,针对不同数据库实例类型的具体数据迁移配置方式的介绍。 如果您的源 MySQL 实例迁移账号尚未创建,那么您可以参考 Grant 语法说明,创建满足权限要求的迁移账号。 如果您的目标 RDS for MySQL 实例迁移账号尚未创建,那么您可以参考 RDS 账号创建流程,创建待迁移数据库有读写权限的迁移账号。 操作步骤当数据库、迁移账号都创建完成后,就可以开始配置迁移任务了。下面详细介绍下具体的配置步骤。 进入数据传输 DTS 控制台,点击页面右上角 创建迁移任务 开始任务配置。配置迁移实例连接信息。 在这个步骤中,主要配置迁移任务名称,迁移源实例及目标实例连接信息。其中: 1) 任务名称 默认情况下,DTS 为每个任务自动生成一个任务名称,您可以修改这个名称,为任务配置一个具备业务意义的名称,便于后续的任务识别。 2) 源实例连接信息 因为本文档以 MySQL->RDS For MySQL 迁移为例,所以: 实例类型:有公网 IP 的自建数据库 数据库类型:MySQL 主机名或 IP 地址:MySQL 实例连接串 端口:MySQL 实例监听端口 账号:MySQL 实例访问账号 密码:上面指定的 MySQL 访问账号对应的密码 3) 目标 RDS for MySQL 实例连接信息 实例类型:RDS 实例 RDS 实例 ID: 选择需要迁移目标 RDS 实例 ID 数据库账号:RDS 实例的访问账号 数据库密码:上面指定的数据库账号对应的数据库密码 迁移对象及迁移类型配置。 在这个步骤中,需要配置迁移类型及迁移对象。其中: 1)迁移类型 迁移类型包括结构迁移、全量数据迁移及增量数据迁移。 如果要做全量迁移,那么选择结构迁移+全量数据迁移。 如果要做不停机迁移,那么选择结构迁移+全量数据迁移+增量数据迁移。 2) 迁移对象 迁移对象,需要选择您要迁移的对象。迁移对象选择的粒度可以为:库、表、列三个粒度。 默认情况下,迁移对象迁移到目标库后,对象名跟源库一致。如果您迁移的对象在源实例跟目标实例上名称不同,那么需要使用 DTS 提供的对象名映射功能,详细使用方式可以参考 库表列映射。 预检查。 在迁移任务正式启动之前,会先进行前置预检查,只有预检查通过后,才能成功启动迁移。具体的预检查内容详见 预检查简介。 如果预检查失败,那么可以点击具体检查项后的按钮,查看具体的失败详情,并根据失败原因修复后,重新进行预检查。 当点击查看后,可以查看到具体的预检查失败原因及修复方法: 当修复完成后,可以在任务列表中,选择这个任务,然后重新启动预检查。 启动迁移任务。 当预检查通过后,我们可以启动迁移任务,任务启动后,可以到任务列表中查看具体的迁移状态及进度。 以上为以 MySQL->RDS For MySQL 迁移为例,数据迁移任务完整的创建流程。其他的实例类型或者存储引擎的配置流程类似。详细的配置流程可以参考 数据传输服务 DTS 产品使用手册 的 用户指南-数据迁移 栏目中,针对不同数据库实例类型的具体数据迁移配置方式的介绍。

2019-12-01 23:09:39 0 浏览量 回答数 0
阿里云大学 云服务器ECS com域名 网站域名whois查询 开发者平台 小程序定制 小程序开发 国内短信套餐包 开发者技术与产品 云数据库 图像识别 开发者问答 阿里云建站 阿里云备案 云市场 万网 阿里云帮助文档 免费套餐 开发者工具 企业信息查询 小程序开发制作 视频内容分析 企业网站制作 视频集锦 代理记账服务 2020阿里巴巴研发效能峰会 企业建站模板 云效成长地图 高端建站