• 关于

    内容元数据不可用

    的搜索结果

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:45 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:46 0 浏览量 回答数 0

Quick BI 数据可视化分析平台

2020年入选全球Gartner ABI魔力象限,为中国首个且唯一入选BI产品

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:45 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:47 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:45 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:45 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 跨区域复制(Bucket Cross-Region Replication) 是跨不同OSS数据中心的Bucket自动、异步复制Object,它会将对源Bucket中的对象的改动(新建、覆盖、删除等)同步到目标Bucket。该功能能够很好的提供Bucket跨区域容灾或满足用户数据复制的需求。目标Bucket中的对象是源Bucket中对象的精确副本,它们具有相同的对象名、元数据以及内容(例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等)。 使用场景 您可能基于各种原因对Bucket配置Cross-Region Replication,这些原因包括: 合规性要求:虽然 OSS 默认对每个存储的对象在物理盘上会有多份副本,但合规性要求所规定的数据需要跨一定距离保存一份副本。通过跨区域数据同步,可以在远距离的 OSS 数据中心之间复制数据以满足这些合规性要求。 最大限度减少延迟:客户处于两个地理位置。为了最大限度缩短访问对象时的延迟,可以在地理位置与用户较近的 OSS 数据中心中维护对象副本。 数据备份与容灾:您对数据的安全性和可用性有极高的要求,对所有写入的数据,都希望在另一个数据中心显式地维护一份副本,以备发生特大灾难,如地震、海啸等导致一个OSS数据中心损毁时,还能启用另一个OSS数据中心的备份数据。 数据复制:由于业务原因,需要将数据从OSS的一个数据中心迁移到另一个数据中心。 操作原因:您在两个不同数据中心中具有分析同一组对象的计算集群。您可能选择在这些区域中维护对象副本。 使用说明 跨区域同步支持异名Bucket的同步,如果您拥有的两个Bucket分属不同区域,可以通过配置同步将源Bucket的数据实时同步到目的Bucket。现在能够支持以下特性: 实时同步数据:数据实时同步,对于数据的增加、删除、修改能够实时监控同步到目标区域Bucket。对于2M文件,能够做到分钟级别信息同步。保证两边数据的最终一致。 历史数据迁移:迁移历史数据,让原来Bucket中历史数据也能进行同步,形成相同的两份数据。 实时获取同步进度:能够针对实时同步数据展示最近同步的时间节点。针对历史数据的迁移,展示迁移的百分比。 便捷配置:OSS控制台提供便捷的界面管理配置。 限制说明 对于处于同步状态的两个Bucket,由于您可以同时操作这两个Bucket,但源Bucket复制过去的Object可能会覆盖目的Bucket中同名的Object,使用中请注意。 由于Bucket Replication是采用异步复制,数据复制到目的Bucket需要一定的时间,通常几分钟到几小时不等,取决于数据的大小。 开启跨区域同步的条件是同步的两个Bucket没有开启与其他Bucket的同步配置,同时不能被其他Bucket同步。举例来说,若 Bucket A 开启了到 Bucket B 的同步,那么您就不能再为 Bucket A 开启到 Bucket C 的同步,除非先删除 Bucket A到Bucket B 的同步配置。同理,若 Bucket A 开启了到 Bucket B 的同步,这时候再开启 Bucket C 到 Bucket B 的同步也是不允许的。 开启数据同步的两个Bucket必须分属两个区域,同区域的Bucket不能进行数据同步。 目前只有中国大陆各区域之间,美东、美西两个区域之间支持跨区域复制功能。 功能使用参考 控制台:跨区域复制

2019-12-01 23:12:45 0 浏览量 回答数 0

问题

本地SSD盘是不是ECS上一代的磁盘?

boxti 2019-12-01 21:35:45 1331 浏览量 回答数 0

回答

先做这样的约定:更新操作(write)是一系列顺序的过程,通过其他机制 确定更新操作的顺序(例如primary-secondary 架构中由primary 决定顺序),每个更新操作记为wi, i 为更新操作单调递增的序号,每个wi 执行成功后副本数据都发生变化,称为不同的数据版本,记 作vi。假设每个副本都保存了历史上所有版本的数据。 write-all-read-one Write-all-read-one(简称WARO)是一种最简单的副本控制规则,顾名思义即在更新时写所有 的副本,只有在所有的副本上更新成功,才认为更新成功,从而保证所有的副本一致,这样在读取 数据时可以读任一副本上的数据。 由于更新操作需要在所有的N 个副本上都成功,更新操作才能成 功,所以一旦有一个副本异常,更新操作失败,更新服务不可用。对于更新服务,虽然有N 个副本, 但系统无法容忍任何一个副本异常。另一方面,N 个副本中只要有一个副本正常,系统就可以提供 读服务。对于读服务而言,当有N 个副本时,系统可以容忍N-1 个副本异常。 从上述分析可以发现WARO 读服务的可用性较高,但更新服务的可用性不高,甚至虽然使用了 副本,但更新服务的可用性等效于没有副本。 Quorum 定义 在Quorum 机制下,当某次更新操作wi 一旦在所有N 个副本中的W 个副本上都成功,则就称 该更新操作为“成功提交的更新操作”,称对应的数据为“成功提交的数据”。令R>N-W,由于更新 操作wi 仅在W 个副本上成功,所以在读取数据时,最多需要读取R 个副本则一定能读到wi 更新后 的数据vi 。如果某次更新wi 在W 个副本上成功,由于W+R>N,任意R 个副本组成的集合一定与 成功的W个副本组成的集合有交集,所以读取R 个副本一定能读到wi 更新后的数据vi。如图 2-10, Quorum 机制的原理可以文森图表示。 某系统有5 个副本,W=3,R=3,最初5 个副本的数据一致,都是v1,某次更新操作 w2 在前3 副本上成功,副本情况变成(v2 v2 v2 v1 v1)。此时,任意3 个副本组成的集合中一定包括 v2。 在上述定义中,令W=N,R=1,就得到WARO,即WARO 是Quorum 机制的一种特例。 与分析WARO 相似,分析Quorum 机制的可用性。限制Quorum 参数为W+R=N+1。由于更新 操作需要在W 个副本上都成功,更新操作才能成功,所以一旦N-W+1 个副本异常,更新操作始终 无法在W 个副本上成功,更新服务不可用。另一方面,一旦N-R+1 个副本异常,则无法保证一定 可以读到与W 个副本有交集的副本集合,则读服务的一致性下降。 再次强调:仅仅依赖quorum 机制是无法保证强一致性的。因为仅有quorum 机制时无法确 定最新已成功提交的版本号,除非将最新已提交的版本号作为元数据由特定的元数据服务器或元数 据集群管理,否则很难确定最新成功提交的版本号。在下一节中,将讨论在哪些情况下,可以仅仅 通过quorum 机制来确定最新成功提交的版本号。 Quorum 机制的三个系统参数N、W、R 控制了系统的可用性,也是系统对用户的服务承诺:数 据最多有N 个副本,但数据更新成功W 个副本即返回用户成功。对于一致性要求较高的Quorum 系 统,系统还应该承诺任何时候不读取未成功提交的数据,即读取到的数据都是曾经在W 个副本上成 功的数据。 读取最新成功提交的数据 Quorum 机制只需成功更新N 个副本中的W 个,在读取R 个副本时,一定可以读到最新的成功 提交的数据。但由于有不成功的更新情况存在,仅仅读取R 个副本却不一定能确定哪个版本的数据 是最新的已提交的数据。对于一个强一致性Quorum 系统, 若存在个数据少于W 个,假设为X 个,则继续读取其他副本,直若成功读取到W 个 该版本的副本,则该数据为最新的成功提交的数据;如果在所有副本中该数据的个数肯定不满 足W 个,则R 中版本号第二大的为最新的成功提交的副本。 例: 在读取到(v2 v1 v1)时,继续读取剩余的副本,若读到剩余两个副本 为(v2 v2)则v2 是最新的已提交的副本;若读到剩余的两个副本为(v2 v1)或(v1 v1)则v1 是最新 成功提交的版本;若读取后续两个副本有任一超时或失败,则无法判断哪个版本是最新的成功提交 的版本。 可以看出,在单纯使用Quorum 机制时,若要确定最新的成功提交的版本,最多需要读取R+ (W-R-1)=N 个副本,当出现任一副本异常时,读最新的成功提交的版本这一功能都有可能不可用。 实际工程中,应该尽量通过其他技术手段,回避通过Quorum 机制读取最新的成功提交的版本。例 如,当quorum 机制与primary-secondary 控制协议结合使用时,可以通过读取primary 的方式读取到 最新的已提交的数据。 基于Quorum 机制选择primary副本 读取数据时依照一致性要求的不 同可以有不同的做法:如果需要强一致性的立刻读取到最新的成功提交的数据,则可以简单的只读 取primary 副本上的数据即可,也可以通过上节的方式读取;如果需要会话一致性,则可以根据之 前已经读到的数据版本号在各个副本上进行选择性读取;如果只需要弱一致性,则可以选择任意副 本读取。 在primary-secondary 协议中,当primary 异常时,需要选择出一个新的primary,之后secondary 副本与primary 同步数据。通常情况下,选择新的primary 的工作是由某一中心节点完成的,在引入 quorum 机制后,常用的primary 选择方式与读取数据的方式类似,即中心节点读取R 个副本,选择 R 个副本中版本号最高的副本作为新的primary。新primary 与至少W 个副本完成数据同步后作为新 的primary 提供读写服务。首先,R 个副本中版本号最高的副本一定蕴含了最新的成功提交的数据。 再者,虽然不能确定最高版本号的数是一个成功提交的数据,但新的primary 在随后与secondary 同 步数据,使得该版本的副本个数达到W,从而使得该版本的数据成为成功提交的数据。 例:在N=5,W=3,R=3 的系统中,某时刻副本最大版本号为(v2 v2 v1 v1 v1),此时v1 是 系统的最新的成功提交的数据,v2 是一个处于中间状态的未成功提交的数据。假设此刻原primary 副本异常,中心节点进行primary 切换工作。这类“中间态”数据究竟作为“脏数据”被删除,还 是作为新的数据被同步后成为生效的数据,完全取决于这个数据能否参与新primary 的选举。下面 分别分析这两种情况。 第一、如图 2-12,若中心节点与其中3 个副本通信成功,读取到的版本号为(v1 v1 v1),则任 选一个副本作为primary,新primary 以v1 作为最新的成功提交的版本并与其他副本同步,当与第1、 第2 个副本同步数据时,由于第1、第2 个副本版本号大于primary,属于脏数据,可以按照2.2.2.4 节中介绍的处理脏数据的方式解决。实践中,新primary 也有可能与后两个副本完成同步后就提供 数据服务,随后自身版本号也更新到v2,如果系统不能保证之后的v2 与之前的v2 完全一样,则新 primary 在与第1、2 个副本同步数据时不但要比较数据版本号还需要比较更新操作的具体内容是否 一样。 第二、若中心节点与其他3 个副本通信成功,读取到的版本号为(v2 v1 v1),则选取版本号为 v2 的副本作为新的primary,之后,一旦新primary 与其他2 个副本完成数据同步,则符合v2 的副 本个数达到W 个,成为最新的成功提交的副本,新primary 可以提供正常的读写服务。

kun坤 2020-04-24 15:56:40 0 浏览量 回答数 0

问题

OSS如何实现管理跨区域复制?

青衫无名 2019-12-01 21:37:01 2257 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称 OSS),是阿里云提供的海量、安全、低成本、高可靠的云存储服务。它具有与平台无关的RESTful API接口,能够提供99.999999999%(11个9)的数据可靠性和99.99%的服务可用性。您可以在任何应用、任何时间、任何地点存储和访问任意类型的数据。 您可以使用阿里云提供的API、SDK接口或者OSS迁移工具轻松地将海量数据移入或移出阿里云OSS。数据存储到阿里云OSS以后,您可以选择标准类型(Standard)的阿里云OSS服务作为移动应用、大型网站、图片分享或热点音视频的主要存储方式,也可以选择成本更低、存储期限更长的低频访问类型(Infrequent Access)和归档类型(Archive)的阿里云OSS服务作为不经常访问数据的备份和归档。 相关概念 存储空间(Bucket) 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。您可以设置和修改存储空间属性用来控制地域、访问权限、生命周期等,这些属性设置直接作用于该存储空间内所有对象,因此您可以通过灵活创建不同的存储空间来完成不同的管理功能。 对象/文件(Object) 对象是 OSS 存储数据的基本单元,也被称为OSS的文件。对象由元信息(Object Meta),用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的Key来标识。对象元信息是一个键值对,表示了对象的一些属性,比如最后修改时间、大小等信息,同时您也可以在元信息中存储一些自定义的信息。 地域(Region) 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等综合选择数据存储的地域。详情请查看OSS已经开通的Region。 访问域名(Endpoint) Endpoint 表示OSS对外服务的访问域名。OSS以HTTP RESTful API的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个Region对应的Endpoint。 访问密钥(AccessKey) AccessKey,简称 AK,指的是访问身份验证中用到的AccessKeyId 和AccessKeySecret。OSS通过使用AccessKeyId 和AccessKeySecret对称加密的方法来验证某个请求的发送者身份。AccessKeyId用于标识用户,AccessKeySecret是用户用于加密签名字符串和OSS用来验证签名字符串的密钥,其中AccessKeySecret 必须保密。 相关服务 您把数据存储到OSS以后,就可以使用阿里云提供的其他产品和服务对其进行相关操作。 以下是您会经常使用到的阿里云产品和服务: 云服务器ECS:提供简单高效、处理能力可弹性伸缩的云端计算服务。请参见ECS产品详情页面。 内容分发网络CDN:将源站资源缓存到各区域的边缘节点,供您就近快速获取内容。请参见CDN产品详情页面。 E-MapReduce:构建于阿里云云服务器 ECS 上的大数据处理的系统解决方案,基于开源的 Apache Hadoop 和 Apache Spark,方便您分析和处理自己的数据。请参见E-MapReduce产品详情页面。 媒体处理:将存储于OSS的音视频转码成适合在PC、TV以及移动终端上播放的格式。并基于海量数据深度学习,对音视频的内容、文字、语音、场景多模态分析,实现智能审核、内容理解、智能编辑。请参见媒体处理产品详情页面。 使用OSS 阿里云提供了Web服务页面,方便您管理对象存储OSS。您可以登录OSS管理控制台,操作存储空间和对象。关于管理控制台的操作,请参见控制台用户指南。 阿里云也提供了丰富的API接口和各种语言的SDK包,方便您灵活地管理对象存储OSS。请参见OSS API参考和OSS SDK参考。 OSS定价 传统的存储服务供应商会要求您购买预定量的存储和网络传输容量,如果超出此容量,就会关闭对应的服务或者收取高昂的超容量费用;如果没有超过此容量,又需要您按照全部容量支付费用。 对象存储OSS仅按照您的实际使用容量收费,您无需预先购买存储和流量容量,随着您业务的发展,您将享受到更多的基础设施成本优势。 关于对象存储OSS的价格,请参见OSS详细价格信息。关于OSS的计量计费方式,请参见OSS计量项和计费项。 学习路径图 您可以通过OSS产品学习路径图快速了解OSS,学习相关的基础操作,并利用丰富的API、SDK包和便捷工具进行二次开发。 视频

2019-12-01 23:12:03 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称 OSS),是阿里云提供的海量、安全、低成本、高可靠的云存储服务。它具有与平台无关的RESTful API接口,能够提供99.999999999%(11个9)的数据可靠性和99.99%的服务可用性。您可以在任何应用、任何时间、任何地点存储和访问任意类型的数据。 您可以使用阿里云提供的API、SDK接口或者OSS迁移工具轻松地将海量数据移入或移出阿里云OSS。数据存储到阿里云OSS以后,您可以选择标准类型(Standard)的阿里云OSS服务作为移动应用、大型网站、图片分享或热点音视频的主要存储方式,也可以选择成本更低、存储期限更长的低频访问类型(Infrequent Access)和归档类型(Archive)的阿里云OSS服务作为不经常访问数据的备份和归档。 相关概念 存储空间(Bucket) 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。您可以设置和修改存储空间属性用来控制地域、访问权限、生命周期等,这些属性设置直接作用于该存储空间内所有对象,因此您可以通过灵活创建不同的存储空间来完成不同的管理功能。 对象/文件(Object) 对象是 OSS 存储数据的基本单元,也被称为OSS的文件。对象由元信息(Object Meta),用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的Key来标识。对象元信息是一个键值对,表示了对象的一些属性,比如最后修改时间、大小等信息,同时您也可以在元信息中存储一些自定义的信息。 地域(Region) 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等综合选择数据存储的地域。详情请查看OSS已经开通的Region。 访问域名(Endpoint) Endpoint 表示OSS对外服务的访问域名。OSS以HTTP RESTful API的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个Region对应的Endpoint。 访问密钥(AccessKey) AccessKey,简称 AK,指的是访问身份验证中用到的AccessKeyId 和AccessKeySecret。OSS通过使用AccessKeyId 和AccessKeySecret对称加密的方法来验证某个请求的发送者身份。AccessKeyId用于标识用户,AccessKeySecret是用户用于加密签名字符串和OSS用来验证签名字符串的密钥,其中AccessKeySecret 必须保密。 相关服务 您把数据存储到OSS以后,就可以使用阿里云提供的其他产品和服务对其进行相关操作。 以下是您会经常使用到的阿里云产品和服务: 云服务器ECS:提供简单高效、处理能力可弹性伸缩的云端计算服务。请参见ECS产品详情页面。 内容分发网络CDN:将源站资源缓存到各区域的边缘节点,供您就近快速获取内容。请参见CDN产品详情页面。 E-MapReduce:构建于阿里云云服务器 ECS 上的大数据处理的系统解决方案,基于开源的 Apache Hadoop 和 Apache Spark,方便您分析和处理自己的数据。请参见E-MapReduce产品详情页面。 媒体处理:将存储于OSS的音视频转码成适合在PC、TV以及移动终端上播放的格式。并基于海量数据深度学习,对音视频的内容、文字、语音、场景多模态分析,实现智能审核、内容理解、智能编辑。请参见媒体处理产品详情页面。 使用OSS 阿里云提供了Web服务页面,方便您管理对象存储OSS。您可以登录OSS管理控制台,操作存储空间和对象。关于管理控制台的操作,请参见控制台用户指南。 阿里云也提供了丰富的API接口和各种语言的SDK包,方便您灵活地管理对象存储OSS。请参见OSS API参考和OSS SDK参考。 OSS定价 传统的存储服务供应商会要求您购买预定量的存储和网络传输容量,如果超出此容量,就会关闭对应的服务或者收取高昂的超容量费用;如果没有超过此容量,又需要您按照全部容量支付费用。 对象存储OSS仅按照您的实际使用容量收费,您无需预先购买存储和流量容量,随着您业务的发展,您将享受到更多的基础设施成本优势。 关于对象存储OSS的价格,请参见OSS详细价格信息。关于OSS的计量计费方式,请参见OSS计量项和计费项。 学习路径图 您可以通过OSS产品学习路径图快速了解OSS,学习相关的基础操作,并利用丰富的API、SDK包和便捷工具进行二次开发。 视频

2019-12-01 23:12:03 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称 OSS),是阿里云提供的海量、安全、低成本、高可靠的云存储服务。它具有与平台无关的RESTful API接口,能够提供99.999999999%(11个9)的数据可靠性和99.99%的服务可用性。您可以在任何应用、任何时间、任何地点存储和访问任意类型的数据。 您可以使用阿里云提供的API、SDK接口或者OSS迁移工具轻松地将海量数据移入或移出阿里云OSS。数据存储到阿里云OSS以后,您可以选择标准类型(Standard)的阿里云OSS服务作为移动应用、大型网站、图片分享或热点音视频的主要存储方式,也可以选择成本更低、存储期限更长的低频访问类型(Infrequent Access)和归档类型(Archive)的阿里云OSS服务作为不经常访问数据的备份和归档。 相关概念 存储空间(Bucket) 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。您可以设置和修改存储空间属性用来控制地域、访问权限、生命周期等,这些属性设置直接作用于该存储空间内所有对象,因此您可以通过灵活创建不同的存储空间来完成不同的管理功能。 对象/文件(Object) 对象是 OSS 存储数据的基本单元,也被称为OSS的文件。对象由元信息(Object Meta),用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的Key来标识。对象元信息是一个键值对,表示了对象的一些属性,比如最后修改时间、大小等信息,同时您也可以在元信息中存储一些自定义的信息。 地域(Region) 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等综合选择数据存储的地域。详情请查看OSS已经开通的Region。 访问域名(Endpoint) Endpoint 表示OSS对外服务的访问域名。OSS以HTTP RESTful API的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个Region对应的Endpoint。 访问密钥(AccessKey) AccessKey,简称 AK,指的是访问身份验证中用到的AccessKeyId 和AccessKeySecret。OSS通过使用AccessKeyId 和AccessKeySecret对称加密的方法来验证某个请求的发送者身份。AccessKeyId用于标识用户,AccessKeySecret是用户用于加密签名字符串和OSS用来验证签名字符串的密钥,其中AccessKeySecret 必须保密。 相关服务 您把数据存储到OSS以后,就可以使用阿里云提供的其他产品和服务对其进行相关操作。 以下是您会经常使用到的阿里云产品和服务: 云服务器ECS:提供简单高效、处理能力可弹性伸缩的云端计算服务。请参见ECS产品详情页面。 内容分发网络CDN:将源站资源缓存到各区域的边缘节点,供您就近快速获取内容。请参见CDN产品详情页面。 E-MapReduce:构建于阿里云云服务器 ECS 上的大数据处理的系统解决方案,基于开源的 Apache Hadoop 和 Apache Spark,方便您分析和处理自己的数据。请参见E-MapReduce产品详情页面。 媒体处理:将存储于OSS的音视频转码成适合在PC、TV以及移动终端上播放的格式。并基于海量数据深度学习,对音视频的内容、文字、语音、场景多模态分析,实现智能审核、内容理解、智能编辑。请参见媒体处理产品详情页面。 使用OSS 阿里云提供了Web服务页面,方便您管理对象存储OSS。您可以登录OSS管理控制台,操作存储空间和对象。关于管理控制台的操作,请参见控制台用户指南。 阿里云也提供了丰富的API接口和各种语言的SDK包,方便您灵活地管理对象存储OSS。请参见OSS API参考和OSS SDK参考。 OSS定价 传统的存储服务供应商会要求您购买预定量的存储和网络传输容量,如果超出此容量,就会关闭对应的服务或者收取高昂的超容量费用;如果没有超过此容量,又需要您按照全部容量支付费用。 对象存储OSS仅按照您的实际使用容量收费,您无需预先购买存储和流量容量,随着您业务的发展,您将享受到更多的基础设施成本优势。 关于对象存储OSS的价格,请参见OSS详细价格信息。关于OSS的计量计费方式,请参见OSS计量项和计费项。 学习路径图 您可以通过OSS产品学习路径图快速了解OSS,学习相关的基础操作,并利用丰富的API、SDK包和便捷工具进行二次开发。 视频

2019-12-01 23:12:02 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称 OSS),是阿里云提供的海量、安全、低成本、高可靠的云存储服务。它具有与平台无关的RESTful API接口,能够提供99.999999999%(11个9)的数据可靠性和99.99%的服务可用性。您可以在任何应用、任何时间、任何地点存储和访问任意类型的数据。 您可以使用阿里云提供的API、SDK接口或者OSS迁移工具轻松地将海量数据移入或移出阿里云OSS。数据存储到阿里云OSS以后,您可以选择标准类型(Standard)的阿里云OSS服务作为移动应用、大型网站、图片分享或热点音视频的主要存储方式,也可以选择成本更低、存储期限更长的低频访问类型(Infrequent Access)和归档类型(Archive)的阿里云OSS服务作为不经常访问数据的备份和归档。 相关概念 存储空间(Bucket) 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。您可以设置和修改存储空间属性用来控制地域、访问权限、生命周期等,这些属性设置直接作用于该存储空间内所有对象,因此您可以通过灵活创建不同的存储空间来完成不同的管理功能。 对象/文件(Object) 对象是 OSS 存储数据的基本单元,也被称为OSS的文件。对象由元信息(Object Meta),用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的Key来标识。对象元信息是一个键值对,表示了对象的一些属性,比如最后修改时间、大小等信息,同时您也可以在元信息中存储一些自定义的信息。 地域(Region) 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等综合选择数据存储的地域。详情请查看OSS已经开通的Region。 访问域名(Endpoint) Endpoint 表示OSS对外服务的访问域名。OSS以HTTP RESTful API的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个Region对应的Endpoint。 访问密钥(AccessKey) AccessKey,简称 AK,指的是访问身份验证中用到的AccessKeyId 和AccessKeySecret。OSS通过使用AccessKeyId 和AccessKeySecret对称加密的方法来验证某个请求的发送者身份。AccessKeyId用于标识用户,AccessKeySecret是用户用于加密签名字符串和OSS用来验证签名字符串的密钥,其中AccessKeySecret 必须保密。 相关服务 您把数据存储到OSS以后,就可以使用阿里云提供的其他产品和服务对其进行相关操作。 以下是您会经常使用到的阿里云产品和服务: 云服务器ECS:提供简单高效、处理能力可弹性伸缩的云端计算服务。请参见ECS产品详情页面。 内容分发网络CDN:将源站资源缓存到各区域的边缘节点,供您就近快速获取内容。请参见CDN产品详情页面。 E-MapReduce:构建于阿里云云服务器 ECS 上的大数据处理的系统解决方案,基于开源的 Apache Hadoop 和 Apache Spark,方便您分析和处理自己的数据。请参见E-MapReduce产品详情页面。 媒体处理:将存储于OSS的音视频转码成适合在PC、TV以及移动终端上播放的格式。并基于海量数据深度学习,对音视频的内容、文字、语音、场景多模态分析,实现智能审核、内容理解、智能编辑。请参见媒体处理产品详情页面。 使用OSS 阿里云提供了Web服务页面,方便您管理对象存储OSS。您可以登录OSS管理控制台,操作存储空间和对象。关于管理控制台的操作,请参见控制台用户指南。 阿里云也提供了丰富的API接口和各种语言的SDK包,方便您灵活地管理对象存储OSS。请参见OSS API参考和OSS SDK参考。 OSS定价 传统的存储服务供应商会要求您购买预定量的存储和网络传输容量,如果超出此容量,就会关闭对应的服务或者收取高昂的超容量费用;如果没有超过此容量,又需要您按照全部容量支付费用。 对象存储OSS仅按照您的实际使用容量收费,您无需预先购买存储和流量容量,随着您业务的发展,您将享受到更多的基础设施成本优势。 关于对象存储OSS的价格,请参见OSS详细价格信息。关于OSS的计量计费方式,请参见OSS计量项和计费项。 学习路径图 您可以通过OSS产品学习路径图快速了解OSS,学习相关的基础操作,并利用丰富的API、SDK包和便捷工具进行二次开发。 视频

2019-12-01 23:12:03 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称 OSS),是阿里云提供的海量、安全、低成本、高可靠的云存储服务。它具有与平台无关的RESTful API接口,能够提供99.999999999%(11个9)的数据可靠性和99.99%的服务可用性。您可以在任何应用、任何时间、任何地点存储和访问任意类型的数据。 您可以使用阿里云提供的API、SDK接口或者OSS迁移工具轻松地将海量数据移入或移出阿里云OSS。数据存储到阿里云OSS以后,您可以选择标准类型(Standard)的阿里云OSS服务作为移动应用、大型网站、图片分享或热点音视频的主要存储方式,也可以选择成本更低、存储期限更长的低频访问类型(Infrequent Access)和归档类型(Archive)的阿里云OSS服务作为不经常访问数据的备份和归档。 相关概念 存储空间(Bucket) 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。您可以设置和修改存储空间属性用来控制地域、访问权限、生命周期等,这些属性设置直接作用于该存储空间内所有对象,因此您可以通过灵活创建不同的存储空间来完成不同的管理功能。 对象/文件(Object) 对象是 OSS 存储数据的基本单元,也被称为OSS的文件。对象由元信息(Object Meta),用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的Key来标识。对象元信息是一个键值对,表示了对象的一些属性,比如最后修改时间、大小等信息,同时您也可以在元信息中存储一些自定义的信息。 地域(Region) 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等综合选择数据存储的地域。详情请查看OSS已经开通的Region。 访问域名(Endpoint) Endpoint 表示OSS对外服务的访问域名。OSS以HTTP RESTful API的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个Region对应的Endpoint。 访问密钥(AccessKey) AccessKey,简称 AK,指的是访问身份验证中用到的AccessKeyId 和AccessKeySecret。OSS通过使用AccessKeyId 和AccessKeySecret对称加密的方法来验证某个请求的发送者身份。AccessKeyId用于标识用户,AccessKeySecret是用户用于加密签名字符串和OSS用来验证签名字符串的密钥,其中AccessKeySecret 必须保密。 相关服务 您把数据存储到OSS以后,就可以使用阿里云提供的其他产品和服务对其进行相关操作。 以下是您会经常使用到的阿里云产品和服务: 云服务器ECS:提供简单高效、处理能力可弹性伸缩的云端计算服务。请参见ECS产品详情页面。 内容分发网络CDN:将源站资源缓存到各区域的边缘节点,供您就近快速获取内容。请参见CDN产品详情页面。 E-MapReduce:构建于阿里云云服务器 ECS 上的大数据处理的系统解决方案,基于开源的 Apache Hadoop 和 Apache Spark,方便您分析和处理自己的数据。请参见E-MapReduce产品详情页面。 媒体处理:将存储于OSS的音视频转码成适合在PC、TV以及移动终端上播放的格式。并基于海量数据深度学习,对音视频的内容、文字、语音、场景多模态分析,实现智能审核、内容理解、智能编辑。请参见媒体处理产品详情页面。 使用OSS 阿里云提供了Web服务页面,方便您管理对象存储OSS。您可以登录OSS管理控制台,操作存储空间和对象。关于管理控制台的操作,请参见控制台用户指南。 阿里云也提供了丰富的API接口和各种语言的SDK包,方便您灵活地管理对象存储OSS。请参见OSS API参考和OSS SDK参考。 OSS定价 传统的存储服务供应商会要求您购买预定量的存储和网络传输容量,如果超出此容量,就会关闭对应的服务或者收取高昂的超容量费用;如果没有超过此容量,又需要您按照全部容量支付费用。 对象存储OSS仅按照您的实际使用容量收费,您无需预先购买存储和流量容量,随着您业务的发展,您将享受到更多的基础设施成本优势。 关于对象存储OSS的价格,请参见OSS详细价格信息。关于OSS的计量计费方式,请参见OSS计量项和计费项。 学习路径图 您可以通过OSS产品学习路径图快速了解OSS,学习相关的基础操作,并利用丰富的API、SDK包和便捷工具进行二次开发。 视频

2019-12-01 23:12:02 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 阿里云对象存储服务(Object Storage Service,简称 OSS),是阿里云提供的海量、安全、低成本、高可靠的云存储服务。它具有与平台无关的RESTful API接口,能够提供99.999999999%(11个9)的数据可靠性和99.99%的服务可用性。您可以在任何应用、任何时间、任何地点存储和访问任意类型的数据。 您可以使用阿里云提供的API、SDK接口或者OSS迁移工具轻松地将海量数据移入或移出阿里云OSS。数据存储到阿里云OSS以后,您可以选择标准类型(Standard)的阿里云OSS服务作为移动应用、大型网站、图片分享或热点音视频的主要存储方式,也可以选择成本更低、存储期限更长的低频访问类型(Infrequent Access)和归档类型(Archive)的阿里云OSS服务作为不经常访问数据的备份和归档。 相关概念 存储空间(Bucket) 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。您可以设置和修改存储空间属性用来控制地域、访问权限、生命周期等,这些属性设置直接作用于该存储空间内所有对象,因此您可以通过灵活创建不同的存储空间来完成不同的管理功能。 对象/文件(Object) 对象是 OSS 存储数据的基本单元,也被称为OSS的文件。对象由元信息(Object Meta),用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的Key来标识。对象元信息是一个键值对,表示了对象的一些属性,比如最后修改时间、大小等信息,同时您也可以在元信息中存储一些自定义的信息。 地域(Region) 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等综合选择数据存储的地域。详情请查看OSS已经开通的Region。 访问域名(Endpoint) Endpoint 表示OSS对外服务的访问域名。OSS以HTTP RESTful API的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个Region对应的Endpoint。 访问密钥(AccessKey) AccessKey,简称 AK,指的是访问身份验证中用到的AccessKeyId 和AccessKeySecret。OSS通过使用AccessKeyId 和AccessKeySecret对称加密的方法来验证某个请求的发送者身份。AccessKeyId用于标识用户,AccessKeySecret是用户用于加密签名字符串和OSS用来验证签名字符串的密钥,其中AccessKeySecret 必须保密。 相关服务 您把数据存储到OSS以后,就可以使用阿里云提供的其他产品和服务对其进行相关操作。 以下是您会经常使用到的阿里云产品和服务: 云服务器ECS:提供简单高效、处理能力可弹性伸缩的云端计算服务。请参见ECS产品详情页面。 内容分发网络CDN:将源站资源缓存到各区域的边缘节点,供您就近快速获取内容。请参见CDN产品详情页面。 E-MapReduce:构建于阿里云云服务器 ECS 上的大数据处理的系统解决方案,基于开源的 Apache Hadoop 和 Apache Spark,方便您分析和处理自己的数据。请参见E-MapReduce产品详情页面。 媒体处理:将存储于OSS的音视频转码成适合在PC、TV以及移动终端上播放的格式。并基于海量数据深度学习,对音视频的内容、文字、语音、场景多模态分析,实现智能审核、内容理解、智能编辑。请参见媒体处理产品详情页面。 使用OSS 阿里云提供了Web服务页面,方便您管理对象存储OSS。您可以登录OSS管理控制台,操作存储空间和对象。关于管理控制台的操作,请参见控制台用户指南。 阿里云也提供了丰富的API接口和各种语言的SDK包,方便您灵活地管理对象存储OSS。请参见OSS API参考和OSS SDK参考。 OSS定价 传统的存储服务供应商会要求您购买预定量的存储和网络传输容量,如果超出此容量,就会关闭对应的服务或者收取高昂的超容量费用;如果没有超过此容量,又需要您按照全部容量支付费用。 对象存储OSS仅按照您的实际使用容量收费,您无需预先购买存储和流量容量,随着您业务的发展,您将享受到更多的基础设施成本优势。 关于对象存储OSS的价格,请参见OSS详细价格信息。关于OSS的计量计费方式,请参见OSS计量项和计费项。 学习路径图 您可以通过OSS产品学习路径图快速了解OSS,学习相关的基础操作,并利用丰富的API、SDK包和便捷工具进行二次开发。 视频

2019-12-01 23:12:03 0 浏览量 回答数 0

回答

存储类型(Storage Class) OSS 提供标准、低频访问、归档三种存储类型,全面覆盖从热到冷的各种数据存储场景。其中标准存储类型提供高可靠、高可用、高性能的对象存储服务,能够支持频繁的数据访问;低频访问存储类型适合长期保存不经常访问的数据(平均每月访问频率 1 到 2 次),存储单价低于标准类型;归档存储类型适合需要长期保存(建议半年以上)的归档数据,在三种存储类型中单价最低。详情请参见存储类型介绍。 存储空间(Bucket) 存储空间是您用于存储对象(Object)的容器,所有的对象都必须隶属于某个存储空间。存储空间具有各种配置属性,包括地域、访问权限、存储类型等。您可以根据实际需求,创建不同类型的存储空间来存储不同的数据。创建存储空间请参见创建存储空间。 对象/文件(Object) 对象是 OSS 存储数据的基本单元,也被称为 OSS 的文件。对象由元信息(Object Meta)、用户数据(Data)和文件名(Key)组成。对象由存储空间内部唯一的 Key 来标识。对象元信息是一组键值对,表示了对象的一些属性,例如最后修改时间、大小等信息,同时您也可以在元信息中存储一些自定义的信息。 地域(Region) 地域表示 OSS 的数据中心所在物理位置。您可以根据费用、请求来源等选择合适的地域创建 Bucket。详情请参见 OSS 已开通的Region。 访问域名(Endpoint) Endpoint 表示 OSS 对外服务的访问域名。OSS 以 HTTP RESTful API 的形式对外提供服务,当访问不同地域的时候,需要不同的域名。通过内网和外网访问同一个地域所需要的域名也是不同的。具体的内容请参见各个 Region 对应的 Endpoint。 访问密钥(AccessKey) AccessKey(简称 AK)指的是访问身份验证中用到的 AccessKeyId 和 AccessKeySecret。OSS 通过使用 AccessKeyId 和 AccessKeySecret 对称加密的方法来验证某个请求的发送者身份。AccessKeyId 用于标识用户;AccessKeySecret 是用户用于加密签名字符串和 OSS 用来验证签名字符串的密钥,必须保密。

剑曼红尘 2020-03-26 17:12:04 0 浏览量 回答数 0

回答

常见错误处理 错误码 处理方式 1000 一般为语法或者超时引起,如果多次刷新不再出现,则是超时引起,如果仍出现,则语法有问题,请对照文档仔细检查,如分隔符、函数字段类型等 2112 排序表达式中的text_relevance(field)、fieldterm_proximity(field)等文本feature中的field必须在查询的索引包含的源字段中,否则会报错,但不影响搜索结果。 3007 对于API推送系统是有频率限制,请控制好频率重试 4003 可以先按照文档样例,试下签名结果是否一致,判断是否是签名算法问题。如果不是,请检查下参数按照字典序排序后应该是公共参数(大写字母)在前,请求参数(小写字母)在后。另外还有空格等一些编码规则,具体参考授权文档介绍 4007 一般Json字段内容中包含双引号或者不可见字符会导致格式解析失败,请转义或者过滤后重试 4010 TimeStamp参数是有过期时间的,请按照要求格式取当前时间来计算 5001 没有找到对应的用户,一般为ACCESSKEY信息不正确,或者使用区域域名错误(API域名请以应用管理-》基本信息-》API入口为准),请检查修改后重试 5008 服务内部是通过Accesskey来进行用户身份校验的,请确保AccessKey已经开启,您可以通过控制台AccessKey管理入口来创建和删除 6013 start+hit不能超过5000,否则会报错无结果。需要超过5000的请求,请查看下API文档中的SCROLL接口,看是否满足需求 6015 请及时到控制台配额管理处进行QPS峰值的调整,否则超过的请求会被丢弃 6127 除了query子句,其他子句出现的字段都必须配置为属性字段才能使用。请修改应用结构后重试 系统级别(1000-1999) 错误码 错误说明 1000 系统内部错误 1001 没有找到模版 1003 不支持的索引类型 1004 服务暂时不可用,请稍后再试 应用相关(2000-2999) 错误码 错误说明 2001 待查应用不存在 2002 应用已经存在 2003 到达创建应用总限制 2004 应用名不可用。应用名由数字、26个英文字母或下划线组成,长度不超过30位 2005 应用名称没有设定 2006 新应用名称没有设定 2007 备注不超300字 2008 摘要配置参数错误 2009 更新状态失败 2010 应用暂停中 2011 应用冻结中 2012 应用未开启 2013 删除失败,没有此应用 2014 文件上传失败 2016 区域信息没有 2017 此应用并不属于当前区域 2099 当前接口暂时不提供服务。 2101 表达式不存在 2102 表达式名称被占用 2103 到达该应用表达式总数限制 2104 表达式名不可用。表达式名由数字、26个英文字母或下划线组成,长度不超过30位 2105 表达式名称没有设定 2106 新表达式名称没有设定 2107 表达式备注不超过300字 2108 表达式备注格式错误 2109 表达式格式错误 2110 表达式长度超过限制 2111 表达式id未指定 2112 表达式错误 2113 表达式不能为空 2114 操作错误 2201 粗排配置名没有设定 2202 粗排配置名已经存在 2203 粗排配置个数超出限制 2204 粗排配置名错误。只能由数字、26个英文字母或下划线组成 2205 粗排配置名长度超出限制 2206 粗排字段必须是数值型 2207 粗排配置不存在 2208 粗排配置错误,必须包含字段 2209 粗排配置权重错误,必须是-100000到100000之间的非0数值,浮点数精度支持6位 2210 与系统默认粗排配置重名 2211 timeliness()的参数必须是INT类型 2112 排序表达式错误 2551 查询指定的下拉提示规则不存在 文档相关(3000-3999) 错误码 错误说明 3001 文档不能为空 3002 文档大小超过限制 3003 已经到最大文档数 3004 保存文档失败 3005 doc格式错误 3006 文档操作cmd不合法 3007 请求过于频繁 3008 文档总长度太长 3009 没有文档id 3011 在配置RDS或MYSQL数据源后,不支持API推送文档 3012 未找到指定资源 3013 文档推送速率超过应用配额 3014 文档推送速率触发系统限制 3015 单次推送文档个数超过系统限制 3016 文档总数超过应用配额 授权相关(4000-4999) 错误码 错误说明 4001 认证失败 4002 需要设置签名 4003 签名验证失败 4004 需要设置SignatureNonce 4005 SignatureNonce不能重复使用 4006 SignatureNonce验证失败 4007 解析JSON格式失败 4008 用户名称不能为空,请检查域名正确性 4009 需要指定用户标识 4010 时间过期 4011 demo帐号禁止执行的操作 4012 数据表不存在 4013 Timestamp格式错误 4014 需要设置Timestamp 4020 RAM子账户鉴权失败 用户相关(5000-5999) 错误码 错误说明 5001 用户不存在 5002 用户名不正确 5003 需要用户登录 5005 用户未开通OpenSearch服务,请前往阿里云官网开通 5008 用户没有启用ACCESSKEY 5100 用户没有此区域的操作权限 5004 用户未缴费 5005 用户未开通OpenSearch服务,请前往阿里云官网开通 5006 欠费冻结中 5008 用户没有启用ACCESSKEY 5009 用户已经删除 5010 ACCESSKEY 已经禁用 5011 通过邮箱获取到多个用户 5012 CODE_USER_ALIYUN_USER_ID_INVALID,错误信息为空 5013 CODE_USER_ALIYUN_BID_INVALID,错误信息为空 5014 CODE_USER_CLIENT_ID_INVALID,错误信息为空 5015 CODE_USER_ID_INVALID,错误信息为空 5100 用户没有此区域的操作权限 搜索相关(6000-6999) 错误码 错误说明 6001 查询query为空 6002 并不被支持的搜索key关键字 6003 并不被支持的搜索field关键字 6004 复杂查询为空 6005 field无效 6006 请求包含太多应用名 6007 超出多索引查询每个模板中索引总数 6008 请求串语法错误,解析失败 6009 查询子句过长 6010 无效的rerank size 6011 SignatureNonce格式错误 6013 start+hit超过系统限制 6014 因系统繁忙,请求被丢弃 6015 因流量超出配额,请求被丢弃 6016 查询hit数超过系统限制 6017 目前scroll只支持search_type为scan,也就是说设置了参数scroll,就必须设置参数search_type=scan 6018 设置了scroll参数,但没有search_type参数 6019 传入的scroll_id参数解析失败 6020 无效的scroll参数值 6021 scroll请求不支持Aggregate/Sort/Distinct,当传入这些clause时,会报错 6022 scroll_id已经过期失效了 6100 查询词为空 6101 查询的索引字段不存在 6102 Query中的数值范围错误 6103 Filter中的表达式返回值必须为bool类型 6104 Sort中的表达式返回值不能为bool类型 6105 Sort中存在相同的表达式 6106 查询query语句非法 6107 统计函数表达式的返回值不能为bool或者string类型 6108 统计中的范围必须为升序 6109 统计中的范围表达式返回值类型错误 6110 统计函数不存在 6111 不支持的统计函数 6112 Query 子句错误 6113 Filter子句错误 6114 Aggregate子句错误 6115 Sort子句错误 6116 Distinct子句错误 6117 查询中包含未知的子句 6118 语法错误 6119 Distinct子句中的dist_count值错误,应该为大于0的整数 6120 Distinct子句中的dist_times值错误,应该为大于0的整数 6121 Distinct子句中的reserved值错误,应为true/false 6122 Distinct子句缺少distinct_key 6123 Distinct子句中的grade值错误,例如为空,或非数值 6124 Distinct子句中包含distinct个数不对,个数应在(0,2] 6125 Distinct子句中的max_item_count值错误,应该为大于0的整数 6126 Distinct子句中的update_total_hit值错误,应为true/false 6127 请求中包含了未定义的attribute字段 6128 表达式中的二元操作符的两边的表达式结果类型不匹配 6129 表达式中的二元操作符的两边表达式不能同时为常量 6130 二元逻辑运算表达式类型错误,应为bool类型 6131 二元表达式中不支持string类型 6132 二元表达式中不支持数组类型 6133 位操作中的类型错误 6134 常量表达式的返回值类型错误 6300 常量表达式类型应是整数或浮点数 6301 位取反操作数类型必须为整数 6302 取负数操作数必须为数值 6303 逻辑非操作数必须为数值 6304 二元运算操作数类型错误 6305 非法的二元运算符 6306 函数参数类型错误 6307 函数未定义 6308 函数参数个数错误 6309 非法的数组操作 6310 可过滤字段不存在 6311 数组字段被错当作单值使用 6312 单值字段被错当作数组使用 6313 数组字段下标越界(小于0) 6314 不支持的字段类型 6315 索引字段参数不存在 6316 Query中没有指定索引 6317 Filter子句中只能使用一次公式 6318 公式语法解析出错 6500 搜索语法中包含不存在的字段 6501 在线系统没有索引数据 6502 用户query语法错误 6601 一个索引字段只能包含在一个规则中 6602 没有查询词,如default:’’的情况 6603 查询中的索引字段没有在查询分析规则中指定 6604 关键词没有使用引号括起来,如default:xxx,正确为default:’xxx’ 6605 双引号查询不能配置查询分析规则 6607 disable参数格式错误 6608 disable指定关闭的索引字段不存在 6609 disable指定关闭的功能列表不存在 6610 查询分析后的query为空(原query为空,或者全部是stopword) 6611 查询中没有指定索引字段 数据处理相关(7000-7999) 错误码 错误说明 7100 没有错误发生 7101 单个文档过长 7102 文档所属应用的元信息错误(clientid 或 accesskey、应用名或表名等不正确) 7103 HA3 文档格式错误: 字段解析失败 7104 JSON文档格式错误:字段解析失败 7105 JSON 文档格式错误: json非法 7106 JSON 文档格式错误: json非法 7107 不支持的编码 7108 编码转换失败 7109 fields中没有id字段 7110 fields中id定义不合法 7111 fields中包含保留字段 7201 HA3 文档格式错误: cmd 非法(cmd 非 ADD/UPDATE/DELETE) 7202 JSON 文档格式错误: cmd 非法(cmd 非 ADD/UPDATE/DELETE) 7301 主键字段不存在 7302 字段数据类型错误 7303 数组字段相关错误 7401 文档总数超出配额 7402 每日更新文档数超出配额 7403 单次导入的数据大小超出配额 7500 系统内部错误 7501 云梯Hive待同步字段的列号超出了当前数据的列数范围 7502 从Mysql中读取到的主键字段为空,请联系数据库管理员 7503 JsonKeyValueExtractor内容转换错误: Json格式非法 7504 JsonKeyValueExtractor内容转换错误: key不存在 7505 TairLDBExtractor内容转换错误: namespace非法(应为int32类型) 7506 TairLDBExtractor内容转换错误: 从Tair中读取数据失败 7507 MySql实时同步过滤条件格式错误 7508 系统内部错误: 内容转换插件初始化失败 7509 TairLDBExtractor内容转换配置错误:Tair连接失败,请检查configId 或 namespace 是否有效 7510 KVExtractor内容解析错误:KV格式无法解析 7511 OSS 数据读取失败 7512 OSS 内容长度超过限度 7513 OSS 内容解析错误 7514 系统内部错误: OSS LOG 格式不兼容 7515 过滤条件执行错误 7516 字段映射过程中源表字段缺失 7517 StringCatenateExtractor内容转换错误: 源字段不存在 7518 StringCatenateExtractor内容转换错误: 不支持多值字段 7601 任务执行错误 7602 更新app失败 7701 数据清理任务错误:指定过滤字段不存在 7801 文档格式错误 文档错误内部通知(8000-8999) 错误码 错误说明 8001 保存错误信息失败 8002 必要参数缺失 8003 应用不存在 8004 参数错误 模板相关(9000-9999) 错误码 错误说明 9001 用户名为空 9002 应用名为空 9003 模板名不可用。模板名只能由数字、26个英文字母或下划线组成 9004 模板名长度不可超过30位 9005 查询模板信息出错 9006 模板名字已存在 9007 插入模板信息出错 9008 无效的数据 9009 定义的字段数目超过系统允许的最大字段数 9010 此字段保留字段名 9011 字段已存在 9012 索引名称必须以字母开头,由数字、26个英文字母或下划线组成,长度不超过30位,多值字段类型不能为SWS_TEXT或TEXT 9013 不支持数组 9014 不支持主键 9015 未设定主键 9016 主键不唯一 9017 更新信息失败 9018 删除信息失败 9019 包含多个索引字段的搜索字段最多4个 9020 同一个STRING/TEXT类型的索引字段不能进入多个只包含一个字段的搜索字段中 9021 索引名称必须以字母开头,由数字、26个英文字母或下划线组成,长度不超过30个 9022 该表已经关联 9023 索引名不能包含多类型的字段 9100 系统内部错误 9101 该字段超过数量限制 9102 该数据源未被用到 9103 无效的外表连接 9104 最多2级关联 9105 待查模板不存在 9501 用户名为空 9502 应用名为空 9519 未指定模板 9600 系统内部错误 9902 插件字段类型错误 9999 此域名不提供本服务 数据同步相关(10000-) 错误码 错误说明 10001 没有指定的tddl group key,tddl信息获取失败 10002 获取字段失败或者表不存在 10011 连接agg失败 10012 应用里存在doc 10013 应用不是自定义结构 10110 该任务已结束 10010 部分数据源有问题,已经忽略有错误的数据 10014 数据源类型错误 10100 创建任务失败,未结束的任务已经存在 10101 没有指定应用ID 10106 没有指定应用ID 10107 没有指定应用ID 10102 ACTION无效 10112 文档数量超过限制 10201 获取配额列表失败 10202 更新配额失败 10301 参数错误:参数未提供或者格式不正确 10302 时间参数错误 10303 数据源未配置 10304 该表配额超限 10305 OSS参数错误 10306 OSS BUCKET名称无效 10307 OSS 记录类型无效 10308 OSS BUCKET日志功能未开启 10309 存在未完成的任务 10310 不是运行中的应用,无法创建任务 10311 时间范围不合法 10312 应用描述长度超过限制,最多600字 10313 OSS 内容格式不合法 10314 OSS BUCKET所在区域ACL网络不通 10315 OSS BUCKET的地址信息不合法 10330 数据源参数不合法 10350 连接ODPS服务失败 10351 ODPS 返回错误 10400 OSS前缀不合法 10450 字段不存在

保持可爱mmm 2020-03-26 22:06:37 0 浏览量 回答数 0

回答

请求错误 这类的状态码代表了客户端看起来可能发生了错误,妨碍了服务器的处理。除非响应的是一个 HEAD 请求,否则服务器就应该返回一个解释当前错误状况的实体,以及这是临时的还是永久性的状况。这些状态码适用于任何请求方法。浏览器应当向用户显示任何包含在此类错误响应中的实体内容。 如果错误发生时客户端正在传送数据,那么使用TCP的服务器实现应当仔细确保在关闭客户端与服务器之间的连接之前,客户端已经收到了包含错误信息的数据包。如果客户端在收到错误信息后继续向服务器发送数据,服务器的TCP栈将向客户端发送一个重置数据包,以清除该客户端所有还未识别的输入缓冲,以免这些数据被服务器上的应用程序读取并干扰后者。 400 Bad Request 1、语义有误,当前请求无法被服务器理解。除非进行修改,否则客户端不应该重复提交这个请求。 2、请求参数有误。 401 Unauthorized 当前请求需要用户验证。该响应必须包含一个适用于被请求资源的 WWW-Authenticate 信息头用以询问用户信息。客户端可以重复提交一个包含恰当的 Authorization 头信息的请求。如果当前请求已经包含了 Authorization 证书,那么401响应代表着服务器验证已经拒绝了那些证书。如果401响应包含了与前一个响应相同的身份验证询问,且浏览器已经至少尝试了一次验证,那么浏览器应当向用户展示响应中包含的实体信息,因为这个实体信息中可能包含了相关诊断信息。参见RFC 2617。 402 Payment Required 该状态码是为了将来可能的需求而预留的。 403 Forbidden 服务器已经理解请求,但是拒绝执行它。与401响应不同的是,身份验证并不能提供任何帮助,而且这个请求也不应该被重复提交。如果这不是一个 HEAD 请求,而且服务器希望能够讲清楚为何请求不能被执行,那么就应该在实体内描述拒绝的原因。当然服务器也可以返回一个404响应,假如它不希望让客户端获得任何信息。 404 Not Found 请求失败,请求所希望得到的资源未被在服务器上发现。没有信息能够告诉用户这个状况到底是暂时的还是永久的。假如服务器知道情况的话,应当使用410状态码来告知旧资源因为某些内部的配置机制问题,已经永久的不可用,而且没有任何可以跳转的地址。404这个状态码被广泛应用于当服务器不想揭示到底为何请求被拒绝或者没有其他适合的响应可用的情况下。出现这个错误的最有可能的原因是服务器端没有这个页面。 405 Method Not Allowed 请求行中指定的请求方法不能被用于请求相应的资源。该响应必须返回一个Allow 头信息用以表示出当前资源能够接受的请求方法的列表。 鉴于 PUT,DELETE 方法会对服务器上的资源进行写操作,因而绝大部分的网页服务器都不支持或者在默认配置下不允许上述请求方法,对于此类请求均会返回405错误。 406 Not Acceptable 请求的资源的内容特性无法满足请求头中的条件,因而无法生成响应实体。 除非这是一个 HEAD 请求,否则该响应就应当返回一个包含可以让用户或者浏览器从中选择最合适的实体特性以及地址列表的实体。实体的格式由 Content-Type 头中定义的媒体类型决定。浏览器可以根据格式及自身能力自行作出最佳选择。但是,规范中并没有定义任何作出此类自动选择的标准。 407 Proxy Authentication Required 与401响应类似,只不过客户端必须在代理服务器上进行身份验证。代理服务器必须返回一个 Proxy-Authenticate 用以进行身份询问。客户端可以返回一个 Proxy-Authorization 信息头用以验证。参见RFC 2617。 408 Request Timeout 请求超时。客户端没有在服务器预备等待的时间内完成一个请求的发送。客户端可以随时再次提交这一请求而无需进行任何更改。 409 Conflict 由于和被请求的资源的当前状态之间存在冲突,请求无法完成。这个代码只允许用在这样的情况下才能被使用:用户被认为能够解决冲突,并且会重新提交新的请求。该响应应当包含足够的信息以便用户发现冲突的源头。 冲突通常发生于对 PUT 请求的处理中。例如,在采用版本检查的环境下,某次 PUT 提交的对特定资源的修改请求所附带的版本信息与之前的某个(第三方)请求向冲突,那么此时服务器就应该返回一个409错误,告知用户请求无法完成。此时,响应实体中很可能会包含两个冲突版本之间的差异比较,以便用户重新提交归并以后的新版本。 410 Gone 被请求的资源在服务器上已经不再可用,而且没有任何已知的转发地址。这样的状况应当被认为是永久性的。如果可能,拥有链接编辑功能的客户端应当在获得用户许可后删除所有指向这个地址的引用。如果服务器不知道或者无法确定这个状况是否是永久的,那么就应该使用404状态码。除非额外说明,否则这个响应是可缓存的。 410响应的目的主要是帮助网站管理员维护网站,通知用户该资源已经不再可用,并且服务器拥有者希望所有指向这个资源的远端连接也被删除。这类事件在限时、增值服务中很普遍。同样,410响应也被用于通知客户端在当前服务器站点上,原本属于某个个人的资源已经不再可用。当然,是否需要把所有永久不可用的资源标记为'410 Gone',以及是否需要保持此标记多长时间,完全取决于服务器拥有者。 411 Length Required 服务器拒绝在没有定义 Content-Length 头的情况下接受请求。在添加了表明请求消息体长度的有效 Content-Length 头之后,客户端可以再次提交该请求。 412 Precondition Failed 服务器在验证在请求的头字段中给出先决条件时,没能满足其中的一个或多个。这个状态码允许客户端在获取资源时在请求的元信息(请求头字段数据)中设置先决条件,以此避免该请求方法被应用到其希望的内容以外的资源上。 413 Request Entity Too Large 服务器拒绝处理当前请求,因为该请求提交的实体数据大小超过了服务器愿意或者能够处理的范围。此种情况下,服务器可以关闭连接以免客户端继续发送此请求。 如果这个状况是临时的,服务器应当返回一个 Retry-After 的响应头,以告知客户端可以在多少时间以后重新尝试。 414 Request-URI Too Long 请求的URI 长度超过了服务器能够解释的长度,因此服务器拒绝对该请求提供服务。这比较少见,通常的情况包括: 本应使用POST方法的表单提交变成了GET方法,导致查询字符串(Query String)过长。 重定向URI “黑洞”,例如每次重定向把旧的 URI 作为新的 URI 的一部分,导致在若干次重定向后 URI 超长。 客户端正在尝试利用某些服务器中存在的安全漏洞攻击服务器。这类服务器使用固定长度的缓冲读取或操作请求的 URI,当 GET 后的参数超过某个数值后,可能会产生缓冲区溢出,导致任意代码被执行[1]。没有此类漏洞的服务器,应当返回414状态码。 415 Unsupported Media Type 对于当前请求的方法和所请求的资源,请求中提交的实体并不是服务器中所支持的格式,因此请求被拒绝。 416 Requested Range Not Satisfiable 如果请求中包含了 Range 请求头,并且 Range 中指定的任何数据范围都与当前资源的可用范围不重合,同时请求中又没有定义 If-Range 请求头,那么服务器就应当返回416状态码。 假如 Range 使用的是字节范围,那么这种情况就是指请求指定的所有数据范围的首字节位置都超过了当前资源的长度。服务器也应当在返回416状态码的同时,包含一个 Content-Range 实体头,用以指明当前资源的长度。这个响应也被禁止使用 multipart/byteranges 作为其 Content-Type。 417 Expectation Failed 在请求头 Expect 中指定的预期内容无法被服务器满足,或者这个服务器是一个代理服务器,它有明显的证据证明在当前路由的下一个节点上,Expect 的内容无法被满足。 421 too many connections There are too many connections from your internet address 从当前客户端所在的IP地址到服务器的连接数超过了服务器许可的最大范围。通常,这里的IP地址指的是从服务器上看到的客户端地址(比如用户的网关或者代理服务器地址)。在这种情况下,连接数的计算可能涉及到不止一个终端用户。 422 Unprocessable Entity 请求格式正确,但是由于含有语义错误,无法响应。(RFC 4918 WebDAV) 423 Locked 当前资源被锁定。(RFC 4918 WebDAV) 424 Failed Dependency 由于之前的某个请求发生的错误,导致当前请求失败,例如 PROPPATCH。(RFC 4918 WebDAV) 425 Unordered Collection 在WebDav Advanced Collections 草案中定义,但是未出现在《WebDAV 顺序集协议》(RFC 3658)中。 426 Upgrade Required 客户端应当切换到TLS/1.0。(RFC 2817) 449 Retry With 由微软扩展,代表请求应当在执行完适当的操作后进行重试。 451Unavailable For Legal Reasons 该请求因法律原因不可用。(RFC 7725)

微wx笑 2019-12-01 23:36:42 0 浏览量 回答数 0

问题

HBase运维基础——元数据逆向修复原理

pandacats 2019-12-18 15:08:35 3 浏览量 回答数 0

回答

楼主您好, 请问做的网站要求是什么环境的? 一定是要.net + SQL Server吗? 如果在Linux系统里也能展示站点内容,或许用“1核心1GB内存1M带宽”的“三个1”起步配置的ECS就可以了。 如果是Windows系统,可能建议是使用2GB内存或以上。 ------------------------- Re:回 4楼(马甲世界) 的帖子 您好, CPU和内存资源是可用的?还是要支付系统开销的? 系统资源消耗包括在内。即您订购一个2GB内存的ECS,Windows系统运行所需要内存也会从这2GB的总数里拿走一部分。 宽带要求多少呢?按现在的网站的一般规格 这个要看您的具体页面大小了。您可以评估一下,1Mbps理论上每秒可以传输128KB(1024Kb/8)大小的数据。如果您的首页文件大小是6.4KB,那理论上同一秒内可以向20个客户展示内容(128KB/6.4)。 不知道我这样理解,对不对呢? ------------------------- 回 11楼(马甲世界) 的帖子 您好, 从云友反馈过来的例子来看,没有要求是“最低消费”,如果不足1GB,如500M,那可能是收取0.8元/2 = 0.4元。

dongshan8 2019-12-02 02:31:20 0 浏览量 回答数 0

问题

数据库百问,教你快速上手数据库

yq传送门 2019-12-01 20:16:46 31116 浏览量 回答数 21

回答

前言 本文旨在通过 快速部署一个 wordpress 网站到阿里云 函数计算 平台 这个示例来展示 serverless web 新的开发模式, 包括 FUN 工具一键初始化 NAS, 同步网站到 NAS, 一键部署等能力, 展现函数计算的开发敏捷特性、自动弹性伸缩能力、免运维和完善的监控设施。 相关参考文档: https://yq.aliyun.com/articles/640912 1.1 DEMO 概述 DEMO 示例效果入口: http://hz.mofangdegisn.cn 账号: fc-test-user 密码: fc-test-pwd DEMO 示例工程地址: fc-wordpress 开通服务 免费开通函数计算, 按量付费,函数计算有很大的免费额度。 免费开通文件存储服务NAS, 按量付费 1.2 解决方案 image 如上图所示, 当多个用户通过对外提供的 url 访问web服务的时候,每秒的请求几百上千都没有关系, 函数计算平台会自动伸缩, 提供足够的执行实例来响应用户的请求, 同时函数计算提供了完善的监控设施来监控您的函数运行情况。 1.3 Serverless 方案与传统自建 web 方案对比 ITEM 成本 稳定性 基于 VM 方案 使用 ecs.t5-lc1m1.small, 22.8元/月 服务器和数据库在同一台VM, 均无主备容灾,同时该规格的主机本身性能弱 轻量应用服务器 60元/月(1vCPU 1GB 1Mbps 20GB[ssd]) 服务器和数据库在同一台VM, 均无主备容灾,同时该规格的主机本身性能弱 函数计算 sqlite3 版本约为 1元/月 mysql 版本大约 26元/月 高 函数计算完整费用详情: 每月前 100 万次函数调用免费, 每月前 400000(GB*秒) 费用免费, 函数的内存可以设置为 128M 或者 256M, 因此对于一个一个月访问量低于 100 万次的网站, 该项是免费的 对于低成本的网站, 假设一个月的产生的公网流量为 1GB, 0.8元 NAS, US$0.06/GB/Month, 网站大小为 50M, 即使按 1G 计算, 0.42元 RDS mysql 最基本的单机版本, 25元/月 函数计算计费 | NAS 定价 如上所述, 在低成本网站领域, 函数计算具有十分明显的成本优势,同时还保持了弹性能力,以后业务规模做大以后并没有技术切换成本(可能需要做的只是更换一个更强的关系型数据库), 同时财务成本增长配合预付费也能保持平滑。低成本网站变成高可用高性能网站如丝般顺滑, 高性能网站详情可以参考文末 FAQ 中的 Q1 问题。 函数计算运行 PHP 框架原理 在具体操作部署之前, 先简单梳理一遍函数计算运行 PHP 框架原理 2.1 传统服务器 PHP 运行原理 原理示意图image.png A simple nginx confimage.png 从上面原理示意图我们可以看出,Web 服务器根据 conf 中 location将 PHP 脚本交给 php-fpm 去解析,然后将解析后的结果返回给 client 端 2.2 FC 驱动 PHP 工程原理 image 函数计算的执行环境实例相当于传统 web 服务的 Apache/Nginx 用户函数相当于实现 Apache/Nginx 的 conf 中 location 用户将 Web 网站部署在 NAS,然后挂载 NAS 到函数的执行环境, 比如下面代码中 /mnt/auto 目录 对于 WordPress 入口函数代码就是这么简单: index.php 其中函数计算为用户提供了一个 $GLOBALS['fcPhpCgiProxy'] 对象用来和 php-fpm 进行交互,对PHP 工程中的 php 文件进行解析,该对象提供了两个重要的接口: requestPhpCgi requestPhpCgi($request, $docRoot, $phpFile = "index.php", $fastCgiParams = [], $options = []) $request: 跟 php http invoke 入口的参数一致 $docRoot: Web 工程的根目录 $phpFile: 用于拼接 cgi 参数中的 SCRIPT_FILENAME 的默认参数 $fastCgiParams: 函数计算内部尽量根据 $request给您构造 default cgi params, 但是如果您不是想要的,可以使用$fastCgiParams覆盖一些参数 (reference: cgi) $options: array类型,可选参数, debug_show_cgi_params 设为 true ,会打印每次请求 php 解析时候的 cgi 参数, 默认为 false ;readWriteTimeout 设置解析的时间, 默认为 5 秒 如果您有兴趣, 可以了解下函数计算 PHP Runtime: PHP 入口函数 PHP 执行环境 案例操作步骤 准备条件 免费开通函数计算, 按量付费,函数计算有很大的免费额度。 免费开通文件存储服务NAS, 按量付费 有一个域名, 比如 abc.com, 并将域名 CNAME 解析到函数计算(FC) 对应的 region 如您想在杭州的 region 部署 wordpres 网站, 则将 abc.com CNAME 解析到 12345.cn-hangzhou.fc.aliyuncs.com, 其中 12345 是您的 accountId 3.1 安装最新的 Fun 工具 安装版本为8.x 最新版或者10.x 、12.x nodejs 安装 funcraf 3.2 Clone 工程 git clone https://github.com/awesome-fc/fc-wordpress.git 3.3 根据需要使用的数据库进入不同的目录 复制 .env_example 文件为 .env, 并且修改 .env 中的信息为自己的信息 如果使用 mysql 数据库, 参考章节 3.3.1 如果使用 sqlite3 数据库, 参考章节 3.3.2 3.3.1 使用 mysql 数据库 进入目录 fc-wp-mysql fun nas init fun nas info fun nas init: 初始化 NAS, 基于您的 .env 中的信息获取(已有满足条件的nas)或创建一个同region可用的nas 如果你没有修改 templata.yml 中的配置 service名字, 那么则可以进入下一步; 如果有修改, 会在当前目录生成新的目录 .fun/nas/auto-default/{serviceName} (fun nas info 可以列出新的目录), 将默认目录下的 .fun/nas/auto-default/fc-wp-mysql/wordpress 的wordpress目录拷贝到 .fun/nas/auto-default/{serviceName} 下, 同时可以删除目录 .fun/nas/auto-default/fc-wp-mysql/wordpress 上传 wordpress 网站到 NAS fun nas sync fun nas ls nas:///mnt/auto/ fun nas sync: 将本地 NAS 中的内容(.fun/nas/auto-default/fc-wp-mysql)上传到 NAS 中的 fc-wp-mysql 目录 fun nas ls nas:///mnt/auto/: 查看我们是否已经正确将文件上传到了 NAS 3.3.2 使用 sqlite3 数据库 进入目录 fc-wp-sqlite fun nas init fun nas info fun nas init: 初始化 NAS, 基于您的 .env 中的信息获取(已有满足条件的nas)或创建一个同region可用的nas 如果你没有修改 templata.yml 中的配置 service名字, 那么则可以进入下一步; 如果有修改, 会在当前目录生成新的目录 .fun/nas/auto-default/{serviceName} (fun nas info 可以列出新的目录), 将默认目录下的 .fun/nas/auto-default/fc-wp-sqlite/wordpress 的wordpress目录拷贝到 .fun/nas/auto-default/{serviceName} 下, 同时可以删除目录 .fun/nas/auto-default/fc-wp-sqlite/wordpress 本地完成安装过程, 初始化 sqlite3 数据库 在目录 .fun/nas/auto-default/fc-wp-sqlite/wordpress 中输入命令: php -S 0.0.0.0:80 修改 host 文件,添加 127.0.0.1 hz.mofangdegisn.cn linux/mac : vim /etc/hosts windows7: C:\Windows\System32\drivers\etc 其中 hz.mofangdegisn.cn 是您预先准备的域名 通过浏览器输入 hz.mofangdegisn.cn, 这个时候没有mysql数据库设置页面,完成 wordpress 安装过程 成功安装以后, 这个时候, .fun/nas/auto-default/fc-wp-sqlite/wordpress/wp-content 下面应该有一个 database 的目录, ls -a 查看, 应该有 .ht.sqlite 这个 sqlite3 数据库文件 回退 host 文件的修改 注: 中间修改 host 的目的是初始化 sqlite3 数据库的时候, base site url 是提前准备的域名, 而不是 127.0.0.1 上传 wordpress 网站到 NAS fun nas sync fun nas ls nas:///mnt/auto/ fun nas sync: 将本地 NAS 中的内容(.fun/nas/auto-default/fc-wp-sqlite)上传到 NAS 中的 fc-wp-sqlite 目录 fun nas ls nas:///mnt/auto/: 查看我们是否已经正确将文件上传到了 NAS 3.4 部署函数到FC平台 接下来将函数部署到云平台: 修改 index.php 中的 $host 中的值 修改 template.yml LogConfig 中的 Project, 任意取一个不会重复的名字即可 修改 template.yml 自定义域名为自己提前准备好的域名 执行 fun deploy 登录控制台 https://fc.console.aliyun.com,可以看到service 和函数已经创建成功, 并且 service 也已经正确配置。 通过浏览器打开自己之前配置的域名, 比如本例中的 hz.mofangdegisn.cn mysql 版本数据库, 可以直接跟传统的 wordpress 一样,直接进入安装过程 sqlite3 版本数据库, 由于之前已经完成初始化,可以直接进入网站首页或网站后台 FAQ Q1: 函数计算能开发高性能高可用网站吗? A: 可以, 使用函数计算的单实例多并发功能和高性能数据库 单实例多并发 选择高性能关系型数据库,比如高可用的云数据库PolarDB 有必要再加上这些优化: 预留实例消除冷启动 + 预付费优化成本 极速型 NAS OSS 对象存储 + CDN 来存储和分发静态资源 目前 PHP Runtime 并不支持单实例多并发, 使用 Custom Runtime,可以将基于传统模式 nginx + php-fpm + mysql 开发的网站直接简单无缝迁移到函数计算平台,示例工程 customruntime-php 使用OSS对Wordpress进行图片动静分离 Q2: 使用低成本 sqlite3 版本的网站, 冷启动第一次打开很慢怎么办? A: 用一个 timer trigger 的函数 keep warm Q3: 使用低成本 sqlite3 版本的网站, 能支持多大的qps? A: 由 sqlite3 数据库性能决定, 这边有一些压测结果: image image 每次压力增大时候, 都有些冷启动,时间慢点,但是支持从压测结果来看支持 50 QPS 是没有疑问的, 是足够支持一些中小网站的。 Q4: 使用其他语言基于函数计算开发 serverless 网站可以吗? A: 可以, 比如 python: https://yq.aliyun.com/articles/603249 , 或者直接使用 custom runtime, 内置了 java、python 和 node, Custom Runtime 用户手册 , Custom Runtime 使用集锦

1934890530796658 2020-03-27 17:54:50 0 浏览量 回答数 0

问题

Nginx性能为什么如此吊

小柒2012 2019-12-01 21:20:47 15038 浏览量 回答数 3
阿里云大学 云服务器ECS com域名 网站域名whois查询 开发者平台 小程序定制 小程序开发 国内短信套餐包 开发者技术与产品 云数据库 图像识别 开发者问答 阿里云建站 阿里云备案 云市场 万网 阿里云帮助文档 免费套餐 开发者工具 企业信息查询 小程序开发制作 视频内容分析 企业网站制作 视频集锦 代理记账服务 2020阿里巴巴研发效能峰会 企业建站模板 云效成长地图 高端建站