• 关于

    对象存储 OSS删除bucket

    的搜索结果

回答

详细解答可以参考官方帮助文档存储空间(Bucket)是存储对象(Object)的容器。对象都隶属于存储空间。 创建存储空间以下代码用于新建存储空间: # -*- coding: utf-8 -*-import oss2# 阿里云主账号AccessKey拥有所有API的访问权限,风险很高。强烈建议您创建并使用RAM账号进行API访问或日常运维,请登录 https://ram.console.aliyun.com 创建RAM账号。auth = oss2.Auth('<yourAccessKeyId>', '<yourAccessKeySecret>')# 通过指定Endpoint和存储空间名称,您可以在指定的地域创建新的存储空间。Endpoint以杭州为例,其它Region请按实际情况填写。bucket = oss2.Bucket(auth, 'http://oss-cn-hangzhou.aliyuncs.com', '<yourBucketName>')# 新建存储空间默认为标准存储类型,私有访问权限。bucket.create_bucket() 存储空间的命名规范,请参见基本概念中的命名规范。 您可以在创建存储空间时指定存储空间的权限和存储类型。示例代码如下: # 设置存储空间的存储类型为低频访问类型,访问权限为公共读。bucket.create_bucket(oss2.BUCKET_ACL_PUBLIC_READ, oss2.models.BucketCreateConfig(oss2.BUCKET_STORAGE_CLASS_IA)) 列举存储空间以下代码用于列举存储空间: # -*- coding: utf-8 -*-import oss2# 阿里云主账号AccessKey拥有所有API的访问权限,风险很高。强烈建议您创建并使用RAM账号进行API访问或日常运维,请登录 https://ram.console.aliyun.com 创建RAM账号。auth = oss2.Auth('<yourAccessKeyId>', '<yourAccessKeySecret>')# Endpoint以杭州为例,其它Region请按实际情况填写。service = oss2.Service(auth, 'http://oss-cn-hangzhou.aliyuncs.com')print([b.name for b in oss2.BucketIterator(service)]) 设置存储空间的访问权限存储空间的访问权限(ACL)有以下三类: 访问权限 描述 访问权限值 私有 存储空间的拥有者和授权用户有该存储空间内的文件的读写权限,其他用户没有权限操作该存储空间内的文件。 oss2.BUCKET_ACL_PRIVATE 公共读 存储空间的拥有者和授权用户有该存储空间内的文件的读写权限,其他用户只有该存储空间内的文件的读权限。请谨慎使用该权限。 oss2.BUCKET_ACL_PUBLIC_READ 公共读写 所有用户都有该存储空间内的文件的读写权限。请谨慎使用该权限。 oss2.BUCKET_ACL_PUBLIC_READ_WRITE 以下代码用于设置存储空间的访问权限: # -*- coding: utf-8 -*-import oss2# 阿里云主账号AccessKey拥有所有API的访问权限,风险很高。强烈建议您创建并使用RAM账号进行API访问或日常运维,请登录 https://ram.console.aliyun.com 创建RAM账号。auth = oss2.Auth('<yourAccessKeyId>', '<yourAccessKeySecret>')# Endpoint以杭州为例,其它Region请按实际情况填写。bucket = oss2.Bucket(auth, 'http://oss-cn-hangzhou.aliyuncs.com', '<yourBucketName>')# 设置存储空间访问权限为私有。bucket.put_bucket_acl(oss2.BUCKET_ACL_PRIVATE) 获取存储空间的访问权限以下代码用于获取存储空间的访问权限: # -*- coding: utf-8 -*-import oss2# 阿里云主账号AccessKey拥有所有API的访问权限,风险很高。强烈建议您创建并使用RAM账号进行API访问或日常运维,请登录 https://ram.console.aliyun.com 创建RAM账号。auth = oss2.Auth('<yourAccessKeyId>', '<yourAccessKeySecret>')# Endpoint以杭州为例,其它Region请按实际情况填写。bucket = oss2.Bucket(auth, 'http://oss-cn-hangzhou.aliyuncs.com', '<yourBucketName>')print(bucket.get_bucket_acl().acl) 获取存储空间的信息以下代码用于获取存储空间的信息(Info): # -*- coding: utf-8 -*-import oss2# 阿里云主账号AccessKey拥有所有API的访问权限,风险很高。强烈建议您创建并使用RAM账号进行API访问或日常运维,请登录 https://ram.console.aliyun.com 创建RAM账号。auth = oss2.Auth('<yourAccessKeyId>', '<yourAccessKeySecret>')# Endpoint以杭州为例,其它Region请按实际情况填写。bucket = oss2.Bucket(auth, 'http://oss-cn-hangzhou.aliyuncs.com', '<yourBucketName>')# 获取存储空间相关信息bucket_info = bucket.get_bucket_info()print('name: ' + bucket_info.name)print('storage class: ' + bucket_info.storage_class)print('creation date: ' + bucket_info.creation_date)print('intranet_endpoint: ' + bucket_info.intranet_endpoint)print('extranet_endpoint ' + bucket_info.extranet_endpoint)print('owner: ' + bucket_info.owner.id)print('grant: ' + bucket_info.acl.grant) 删除存储空间删除存储空间之前,必须先删除存储空间下的所有文件、LiveChannel和分片上传产生的碎片。 以下代码用于删除存储空间: # -*- coding: utf-8 -*-import oss2# 阿里云主账号AccessKey拥有所有API的访问权限,风险很高。强烈建议您创建并使用RAM账号进行API访问或日常运维,请登录 https://ram.console.aliyun.com 创建RAM账号。auth = oss2.Auth('<yourAccessKeyId>', '<yourAccessKeySecret>')# Endpoint以杭州为例,其它Region请按实际情况填写。bucket = oss2.Bucket(auth, 'http://oss-cn-hangzhou.aliyuncs.com', '<yourBucketName>')try: # 删除存储空间。 bucket.delete_bucket()except oss2.exceptions.BucketNotEmpty: print('bucket is not empty.')except oss2.exceptions.NoSuchBucket: print('bucket does not exist') 对于非空的存储空间,可以通过边列举边删除(对于分片上传则是终止上传)的方法清空存储空间,然后再删除。

2019-12-01 23:14:00 0 浏览量 回答数 0

问题

对象存储oss【问答合集】

马铭芳 2019-12-01 20:19:32 63255 浏览量 回答数 13

问题

阿里云存储服务OSSAPI(python)

ap7699a0v 2019-12-01 20:19:40 24879 浏览量 回答数 5

阿里云爆款特惠专场,精选爆款产品低至0.95折!

爆款ECS云服务器8.1元/月起,云数据库低至1.5折,限时抢购!

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:45 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:45 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:47 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:45 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:45 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:45 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:46 0 浏览量 回答数 0

回答

我也有这方面的需求,我想放弃使用OSS,无奈只有续费和升级选项 以下答案是我在提交工单那找到的。 考虑到一键关闭会导致客户的业务受到影响,因此OSS暂时没有提供此功能。 如果您确实不想再使用OSS服务,可以删除存储空间(Bucket)下的所有对象(Object)、因分片上传或断点续传产生的碎片(Part)、以及LiveChannel,再删除Bucket,即可在下一个账期(OSS按量付费一小时出一次账单)不产生扣费信息。推荐您通过对象生命周期功能来自动批量删除Object。 如果您长时间(超过30天)不需要使用OSS上的数据,又不想将这些数据删除,建议您通过对象生命周期功能将标准存储转换成低频访问或者归档存储,可以节省约50%到80%的费用。有关低频访问和归档存储类型,请您参见存储类型介绍和OSS详细价格信息 。

游客lqb4jxc3bfv6e 2020-06-05 17:32:57 0 浏览量 回答数 0

问题

OSS如何实现管理跨区域复制?

青衫无名 2019-12-01 21:37:01 2257 浏览量 回答数 0

问题

OSS基本概念介绍

青衫无名 2019-12-01 21:35:42 1011 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称OSS)为您提供基于网络的数据存取服务。使用OSS,您可以通过网络随时存储和调用包括文本、图片、音频和视频等在内的各种非结构化数据文件。 阿里云OSS将数据文件以对象(object)的形式上传到存储空间(bucket)中。您可以进行以下操作: 创建一个或者多个存储空间,向每个存储空间中添加一个或多个文件。 通过获取已上传文件的地址进行文件的分享和下载。 通过修改存储空间或文件的属性或元信息来设置相应的访问权限。 在阿里云管理控制台执行基本和高级OSS任务。 使用阿里云开发工具包或直接在应用程序中进行RESTful API调用执行基本和高级OSS任务。 初次使用阿里云OSS,请您先了解阿里云OSS使用限制。本文档向您介绍如何使用阿里云管理控制台来完成以下基本任务。 开通OSS服务 创建存储空间 上传文件 分享文件 删除文件 删除存储空间 阿里云OSS功能和定价的相关信息,请参见阿里云 OSS 产品页。 有关阿里云OSS服务的购买流程,请参见购买OSS服务。 更多高级操作,请参见阿里云OSS开发指南。 有关控制台上传下载操作,请参见视频链接。

2019-12-01 23:12:57 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称OSS)为您提供基于网络的数据存取服务。使用OSS,您可以通过网络随时存储和调用包括文本、图片、音频和视频等在内的各种非结构化数据文件。 阿里云OSS将数据文件以对象(object)的形式上传到存储空间(bucket)中。您可以进行以下操作: 创建一个或者多个存储空间,向每个存储空间中添加一个或多个文件。 通过获取已上传文件的地址进行文件的分享和下载。 通过修改存储空间或文件的属性或元信息来设置相应的访问权限。 在阿里云管理控制台执行基本和高级OSS任务。 使用阿里云开发工具包或直接在应用程序中进行RESTful API调用执行基本和高级OSS任务。 初次使用阿里云OSS,请您先了解阿里云OSS使用限制。本文档向您介绍如何使用阿里云管理控制台来完成以下基本任务。 开通OSS服务 创建存储空间 上传文件 分享文件 删除文件 删除存储空间 阿里云OSS功能和定价的相关信息,请参见阿里云 OSS 产品页。 有关阿里云OSS服务的购买流程,请参见购买OSS服务。 更多高级操作,请参见阿里云OSS开发指南。 有关控制台上传下载操作,请参见视频链接。

2019-12-01 23:12:56 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称OSS)为您提供基于网络的数据存取服务。使用OSS,您可以通过网络随时存储和调用包括文本、图片、音频和视频等在内的各种非结构化数据文件。 阿里云OSS将数据文件以对象(object)的形式上传到存储空间(bucket)中。您可以进行以下操作: 创建一个或者多个存储空间,向每个存储空间中添加一个或多个文件。 通过获取已上传文件的地址进行文件的分享和下载。 通过修改存储空间或文件的属性或元信息来设置相应的访问权限。 在阿里云管理控制台执行基本和高级OSS任务。 使用阿里云开发工具包或直接在应用程序中进行RESTful API调用执行基本和高级OSS任务。 初次使用阿里云OSS,请您先了解阿里云OSS使用限制。本文档向您介绍如何使用阿里云管理控制台来完成以下基本任务。 开通OSS服务 创建存储空间 上传文件 分享文件 删除文件 删除存储空间 阿里云OSS功能和定价的相关信息,请参见阿里云 OSS 产品页。 有关阿里云OSS服务的购买流程,请参见购买OSS服务。 更多高级操作,请参见阿里云OSS开发指南。 有关控制台上传下载操作,请参见视频链接。

2019-12-01 23:12:56 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称OSS)为您提供基于网络的数据存取服务。使用OSS,您可以通过网络随时存储和调用包括文本、图片、音频和视频等在内的各种非结构化数据文件。 阿里云OSS将数据文件以对象(object)的形式上传到存储空间(bucket)中。您可以进行以下操作: 创建一个或者多个存储空间,向每个存储空间中添加一个或多个文件。 通过获取已上传文件的地址进行文件的分享和下载。 通过修改存储空间或文件的属性或元信息来设置相应的访问权限。 在阿里云管理控制台执行基本和高级OSS任务。 使用阿里云开发工具包或直接在应用程序中进行RESTful API调用执行基本和高级OSS任务。 初次使用阿里云OSS,请您先了解阿里云OSS使用限制。本文档向您介绍如何使用阿里云管理控制台来完成以下基本任务。 开通OSS服务 创建存储空间 上传文件 分享文件 删除文件 删除存储空间 阿里云OSS功能和定价的相关信息,请参见阿里云 OSS 产品页。 有关阿里云OSS服务的购买流程,请参见购买OSS服务。 更多高级操作,请参见阿里云OSS开发指南。 有关控制台上传下载操作,请参见视频链接。

2019-12-01 23:12:56 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称OSS)为您提供基于网络的数据存取服务。使用OSS,您可以通过网络随时存储和调用包括文本、图片、音频和视频等在内的各种非结构化数据文件。 阿里云OSS将数据文件以对象(object)的形式上传到存储空间(bucket)中。您可以进行以下操作: 创建一个或者多个存储空间,向每个存储空间中添加一个或多个文件。 通过获取已上传文件的地址进行文件的分享和下载。 通过修改存储空间或文件的属性或元信息来设置相应的访问权限。 在阿里云管理控制台执行基本和高级OSS任务。 使用阿里云开发工具包或直接在应用程序中进行RESTful API调用执行基本和高级OSS任务。 初次使用阿里云OSS,请您先了解阿里云OSS使用限制。本文档向您介绍如何使用阿里云管理控制台来完成以下基本任务。 开通OSS服务 创建存储空间 上传文件 分享文件 删除文件 删除存储空间 阿里云OSS功能和定价的相关信息,请参见阿里云 OSS 产品页。 有关阿里云OSS服务的购买流程,请参见购买OSS服务。 更多高级操作,请参见阿里云OSS开发指南。 有关控制台上传下载操作,请参见视频链接。

2019-12-01 23:12:56 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称OSS)为您提供基于网络的数据存取服务。使用OSS,您可以通过网络随时存储和调用包括文本、图片、音频和视频等在内的各种非结构化数据文件。 阿里云OSS将数据文件以对象(object)的形式上传到存储空间(bucket)中。您可以进行以下操作: 创建一个或者多个存储空间,向每个存储空间中添加一个或多个文件。 通过获取已上传文件的地址进行文件的分享和下载。 通过修改存储空间或文件的属性或元信息来设置相应的访问权限。 在阿里云管理控制台执行基本和高级OSS任务。 使用阿里云开发工具包或直接在应用程序中进行RESTful API调用执行基本和高级OSS任务。 初次使用阿里云OSS,请您先了解阿里云OSS使用限制。本文档向您介绍如何使用阿里云管理控制台来完成以下基本任务。 开通OSS服务 创建存储空间 上传文件 分享文件 删除文件 删除存储空间 阿里云OSS功能和定价的相关信息,请参见阿里云 OSS 产品页。 有关阿里云OSS服务的购买流程,请参见购买OSS服务。 更多高级操作,请参见阿里云OSS开发指南。 有关控制台上传下载操作,请参见视频链接。

2019-12-01 23:12:56 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称OSS)为您提供基于网络的数据存取服务。使用OSS,您可以通过网络随时存储和调用包括文本、图片、音频和视频等在内的各种非结构化数据文件。 阿里云OSS将数据文件以对象(object)的形式上传到存储空间(bucket)中。您可以进行以下操作: 创建一个或者多个存储空间,向每个存储空间中添加一个或多个文件。 通过获取已上传文件的地址进行文件的分享和下载。 通过修改存储空间或文件的属性或元信息来设置相应的访问权限。 在阿里云管理控制台执行基本和高级OSS任务。 使用阿里云开发工具包或直接在应用程序中进行RESTful API调用执行基本和高级OSS任务。 初次使用阿里云OSS,请您先了解阿里云OSS使用限制。本文档向您介绍如何使用阿里云管理控制台来完成以下基本任务。 开通OSS服务 创建存储空间 上传文件 分享文件 删除文件 删除存储空间 阿里云OSS功能和定价的相关信息,请参见阿里云 OSS 产品页。 有关阿里云OSS服务的购买流程,请参见购买OSS服务。 更多高级操作,请参见阿里云OSS开发指南。 有关控制台上传下载操作,请参见视频链接。

2019-12-01 23:12:56 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称OSS)为您提供基于网络的数据存取服务。使用OSS,您可以通过网络随时存储和调用包括文本、图片、音频和视频等在内的各种非结构化数据文件。 阿里云OSS将数据文件以对象(object)的形式上传到存储空间(bucket)中。您可以进行以下操作: 创建一个或者多个存储空间,向每个存储空间中添加一个或多个文件。 通过获取已上传文件的地址进行文件的分享和下载。 通过修改存储空间或文件的属性或元信息来设置相应的访问权限。 在阿里云管理控制台执行基本和高级OSS任务。 使用阿里云开发工具包或直接在应用程序中进行RESTful API调用执行基本和高级OSS任务。 初次使用阿里云OSS,请您先了解阿里云OSS使用限制。本文档向您介绍如何使用阿里云管理控制台来完成以下基本任务。 开通OSS服务 创建存储空间 上传文件 分享文件 删除文件 删除存储空间 阿里云OSS功能和定价的相关信息,请参见阿里云 OSS 产品页。 有关阿里云OSS服务的购买流程,请参见购买OSS服务。 更多高级操作,请参见阿里云OSS开发指南。 有关控制台上传下载操作,请参见视频链接。

2019-12-01 23:12:56 0 浏览量 回答数 0

问题

OSS-功能概览

青衫无名 2019-12-01 21:34:25 831 浏览量 回答数 0

回答

阿里云对象存储服务(Object Storage Service,简称 OSS)为您提供基于网络的数据存取服务。使用 OSS,您可以通过网络随时存储和调用包括文本、图片、音频和视频等在内的各种非结构化数据文件。 初次使用阿里云 OSS,请您先了解阿里云 OSS 常见问题 和 阿里云 OSS 使用限制。 阿里云 OSS 将数据文件以对象(Object)的形式上传到存储空间(Bucket)中。您可以进行以下操作: 创建一个或者多个存储空间,向每个存储空间中添加一个或多个文件。通过获取已上传文件的地址进行文件的分享和下载。通过修改存储空间或文件的读写权限(ACL)来设置访问权限。通过阿里云管理控制台、各种便捷工具以及丰富的 SDK 包执行基本和高级 OSS 操作。 使用 OSS 管理控制台 使用阿里云管理控制台来完成 OSS 基本操作的流程如下: 开通 OSS 服务创建存储空间上传文件下载文件删除文件删除存储空间

剑曼红尘 2020-03-26 17:56:25 0 浏览量 回答数 0

回答

本文档介绍文件存储HDFS和对象存储OSS之间的数据迁移过程。您可以将文件存储HDFS数据迁移到对象存储OSS,也可以将对象存储OSS的数据迁移到文件存储HDFS上。 背景信息 阿里云文件存储HDFS是面向阿里云ECS实例及容器服务等计算资源的文件存储服务。文件存储HDFS允许您就像在Hadoop分布式文件系统中管理和访问数据,并对热数据提供高性能的数据访问能力。对象存储OSS是海量、安全、低成本、高可靠的云存储服务,并提供标准型、归档型等多种存储类型供选择。客户可以在文件存储HDFS和对象存储OSS之间实现数据迁移,从而实现热、温、冷数据的合理分层,在实现对热数据的高性能访问的同时,有效控制存储成本。 准备工作 挂载文件系统,详情请参见挂载文件系统。 验证文件系统和计算节点之间的连通性。 执行以下命令,在文件存储HDFS上创建目录(如:/dfs_links)。 hadoop fs -mkdir /dfs_links 执行以下命令,验证连通性。 hadoop fs -ls dfs://f-xxxxxxxxxxxxxxx.cn-xxxxxxx.dfs.aliyuncs.com:10290/dfs_links 其中f-xxxxxxxxxxxxxxx.cn-xxxxxxx.dfs.aliyuncs.com为文件存储HDFS挂载点域名,请根据实际情况进行修改。 如果命令正常执行无输出结果,则表示连通成功。如果连通失败,请参见创建文件系统实例后,为什么无法访问文件存储HDFS?进行排查。 准备迁移工具。 单击emr-tools下载迁移工具安装包。 将迁移工具安装包上传计算节点的本地目录。 说明 该计算节点必须运行着Hadoop的YARN服务,或者是YARN集群中可以提交作业的计算节点。因为emr-tools迁移工具需要借助Hadoop数据迁移工具DistCp实现数据的迁移。 执行以下命令,解压安装包。 tar jxf emr-tools.tar.bz2 将文件存储HDFS数据迁移到对象存储OSS 进入emr-tools工具安装包解压后所在的目录,使用hdfs2oss4emr.sh脚本将文件存储HDFS上的数据迁移到对象存储OSS上,具体命令如下所示。 cd emr-tools ./hdfs2oss4emr.sh dfs://f-xxxxxxxxxxxxxxx.cn-xxxxxxx.dfs.aliyuncs.com:10290/HDFS2OSS/data/data_1000g oss://accessKeyId:accessKeySecret@bucket-name.oss-cn-hangzhou.aliyuncs.com/HDFS2OSS/data/data_1000g 参数说明如下表所示。 参数 说明 accessKeyId 访问对象存储OSS API的密钥。获取方式请参见如何获取AccessKeyId和AccessKeySecret。 accessKeySecret bucket-name.oss-cn-hangzhou.aliyuncs.com 对象存储OSS的访问域名,包括bucket名称和endpoint地址。 执行以上命令后,系统将启动一个Hadoop MapReduce任务(DistCp)。 任务执行完成后,查看迁移结果。 如果回显包含如下类似信息,说明迁移成功。 19/03/27 08:48:58 INFO mapreduce.Job: Job job_1553599949635_0014 completed successfully 19/03/27 08:48:59 INFO mapreduce.Job: Counters: 38 File System Counters FILE: Number of bytes read=0 FILE: Number of bytes written=2462230 FILE: Number of read operations=0 FILE: Number of large read operations=0 FILE: Number of write operations=0 HDFS: Number of bytes read=1000001748624 HDFS: Number of bytes written=0 HDFS: Number of read operations=40124 HDFS: Number of large read operations=0 HDFS: Number of write operations=40 OSS: Number of bytes read=0 OSS: Number of bytes written=1000000000000 OSS: Number of read operations=0 OSS: Number of large read operations=0 OSS: Number of write operations=0 Job Counters Launched map tasks=20 Other local map tasks=20 Total time spent by all maps in occupied slots (ms)=65207738 Total time spent by all reduces in occupied slots (ms)=0 Total time spent by all map tasks (ms)=65207738 Total vcore-milliseconds taken by all map tasks=65207738 Total megabyte-milliseconds taken by all map tasks=66772723712 Map-Reduce Framework Map input records=10002 Map output records=0 Input split bytes=2740 Spilled Records=0 Failed Shuffles=0 Merged Map outputs=0 GC time elapsed (ms)=58169 CPU time spent (ms)=5960400 Physical memory (bytes) snapshot=4420333568 Virtual memory (bytes) snapshot=42971959296 Total committed heap usage (bytes)=2411724800 File Input Format Counters Bytes Read=1745884 File Output Format Counters Bytes Written=0 org.apache.hadoop.tools.mapred.CopyMapper$Counter BYTESCOPIED=1000000000000 BYTESEXPECTED=1000000000000 COPY=10002 copy from dfs://f-xxxxxxxxxxxxxxx.cn-xxxxxxx.dfs.aliyuncs.com:10290/path/on/dfs to oss://accessKeyId:accessKeySecret@bucket-name.oss-cn-hangzhou.aliyuncs.com/path/on/oss does succeed !!! 迁移完成后,您可以通过osscmd工具,执行以下命令查看对象存储OSS上的数据情况。 osscmd ls oss://bucket-name/HDFS2OSS/data/data_1000g 将对象存储OSS数据迁移到文件存储HDFS 进入emr-tools工具安装包解压后所在的目录,使用hdfs2oss4emr.sh脚本将对象存储OSS上的数据迁移到文件存储HDFS上,具体命令如下所示。 cd emr-tools ./hdfs2oss4emr.sh oss://accessKeyId:accessKeySecret@bucket-name.oss-cn-hangzhou.aliyuncs.com/OSS2HDFS/oss/1000g dfs://f-xxxxxxxxxxxxxxx.cn-xxxxxxx.dfs.aliyuncs.com:10290/OSS2HDFS/data/data_1000g 参数说明如下表所示。 参数 说明 accessKeyId 访问对象存储OSS API的密钥。获取方式请参见如何获取AccessKeyId和AccessKeySecret。 accessKeySecret bucket-name.oss-cn-hangzhou.aliyuncs.com 对象存储OSS的访问域名,包括bucket名称和endpoint地址。 执行以上命令后,系统将启动一个Hadoop MapReduce任务(DistCp)。 任务执行完成后,查看迁移结果。 如果回显包含如下类似信息,说明迁移成功。 19/03/23 21:59:23 INFO mapreduce.Job: Counters: 38 File System Counters DFS: Number of bytes read=2335687 DFS: Number of bytes written=999700000000 DFS: Number of read operations=60218 DFS: Number of large read operations=0 DFS: Number of write operations=20076 FILE: Number of bytes read=0 FILE: Number of bytes written=2575367 FILE: Number of read operations=0 FILE: Number of large read operations=0 FILE: Number of write operations=0 OSS: Number of bytes read=0 OSS: Number of bytes written=0 OSS: Number of read operations=0 OSS: Number of large read operations=0 OSS: Number of write operations=0 Job Counters Launched map tasks=21 Other local map tasks=21 Total time spent by all maps in occupied slots (ms)=36490484 Total time spent by all reduces in occupied slots (ms)=0 Total time spent by all map tasks (ms)=36490484 Total vcore-milliseconds taken by all map tasks=36490484 Total megabyte-milliseconds taken by all map tasks=37366255616 Map-Reduce Framework Map input records=10018 Map output records=0 Input split bytes=2856 Spilled Records=0 Failed Shuffles=0 Merged Map outputs=0 GC time elapsed (ms)=1064802 CPU time spent (ms)=10370840 Physical memory (bytes) snapshot=6452363264 Virtual memory (bytes) snapshot=45328142336 Total committed heap usage (bytes)=4169138176 File Input Format Counters Bytes Read=2332831 File Output Format Counters Bytes Written=0 org.apache.hadoop.tools.mapred.CopyMapper$Counter BYTESCOPIED=999700000000 BYTESEXPECTED=999700000000 COPY=10018 copy from oss://accessKeyId:accessKeySecret@bucket-name.oss-cn-hangzhou.aliyuncs.com/path/on/oss to dfs://f-xxxxxxxxxxxxxxx.cn-xxxxxxx.dfs.aliyuncs.com:10290/path/on/dfs does succeed !!! 迁移完成后,您可以执行以下命令查看文件存储HDFS上的数据情况。 hadoop fs -ls dfs://f-xxxxxxxxxxxxxxx.cn-xxxxxxx.dfs.aliyuncs.com:10290/OSS2HDFS/data/data_1000g 常见问题 迁移过程出现异常提示:Cannot obtain block length for LocatedBlock。 从原生HDFS往对象存储OSS/文件存储HDFS迁移数据时,可能会遇到这个问题。遇到该问题时,请执行hdfs fsck / –openforwrite命令,检查当前是否有文件处于写入状态尚未关闭。 如果有处于写入状态的文件时,需判断文件是否有效。 如果文件无效,则直接删除文件。 hdfs rm 如果文件有效,则不能直接删除,请考虑恢复问题文件租约。 hdfs debug recoverLease -path -retries 对于正在写入的文件,进行迁移时会遗漏掉最新写入的数据吗? Hadoop兼容文件系统提供单写者多读者并发语义,针对同一个文件,同一时刻可以有一个写者写入和多个读者读出。以文件存储HDFS到对象存储OSS的数据迁移为例,数据迁移任务打开文件存储HDFS的文件F,根据当前系统状态决定文件F的长度L,将L字节迁移到对象存储OSS。如果在数据迁移过程中,有并发的写者写入,文件F的长度将超过L,但是数据迁移任务无法感知到最新写入的数据。因此,建议您在做数据迁移时,避免往迁移的文件中写入数据。

1934890530796658 2020-03-31 02:35:12 0 浏览量 回答数 0
阿里云大学 云服务器ECS com域名 网站域名whois查询 开发者平台 小程序定制 小程序开发 国内短信套餐包 开发者技术与产品 云数据库 图像识别 开发者问答 阿里云建站 阿里云备案 云市场 万网 阿里云帮助文档 免费套餐 开发者工具 企业信息查询 小程序开发制作 视频内容分析 企业网站制作 视频集锦 代理记账服务 2020阿里巴巴研发效能峰会 企业建站模板 云效成长地图 高端建站