• 关于 开发数据归档技术 的搜索结果

问题

浅谈iOS开发中的对象归档:报错

kun坤 2020-06-08 11:03:15 2 浏览量 回答数 1

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:44 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:45 0 浏览量 回答数 0

Java学习路线 26门免费课程

排名第一的编程语言,从事云计算、大数据开发工作必备

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:45 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:45 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:43 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:44 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:44 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:43 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:45 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:44 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:45 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:44 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:45 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:43 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:46 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:43 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:44 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档用户希望将历史数据迁移到用户在OSS的某个目标Bucket上。其中,需要迁移的源数据可能来自于OSS的某个Bucket,也可能来自于本地、第三方云存储(如AWS S3、Azure Blob、腾讯云COS、七牛、百度BOS、又拍云、金山KS3等)、HTTP等。 主要方法 OssImport 使用Ossimport工具进行迁移,适用于各类数据源的历史数据,批量迁移到OSS,请参考OssImport文档。 镜像回源 适用于客户源站无缝迁移数据到OSS。即服务已经在自己建立的源站或者在其他云产品上运行,需要迁移到OSS上,但是又不能停止服务,此时可利用镜像回源功能实现。在Ossimport完成历史数据迁移后,将新产生的数据迁移过程,请参考镜像回源、无缝迁移到OSS。 OSS跨区域复制 适用于同一账户下,从OSS Bucket A将数据复制到Bucket B,请参考设置跨区域复制。在使用时,需注意设置“同步历史数据”。此外,如果不希望同步BucketA的删除操作,可将同步策略设置为“写同步”。 闪电立方 适用于线下数据中心大规模数据迁移上云,支持TB到PB级别大规模数据上云。具体参考官网产品介绍闪电立方。 OSS API或SDK 使用OSS API或SDK编写代码实现,适用于开发能力较强的客户,请参考Copy Object、Upload Part Copy。 场景1:将非OSS上的数据迁移到OSS中在此场景中,迁往目的地是OSS上的Bucket,而源数据不是存储在OSS上,比如在本地、HTTP、第三方云存储(如AWS S3、Azure Blob等)。 各方法的选择如下: OssImport 适用于历史数据批量迁移到OSS,特别适合数据量比较大的情况。数据量大时,使用ossimport分布式版本。 镜像回源 适用于源站新的热数据在线迁移到OSS,如满足您对于数据热迁移、特定请求重定向等需求。 闪电立方 适用于用户本地数据中心,TB到PB级别大规模数据上云 OSS API/SDK Copy Object、Upload Part Copy 适用于有特性需求,使用OSS API/SDK 编写代码上传OSS。 场景2:OSS之间的数据迁移此场景是指将OSS源Bucket数据迁移到OSS目标Bucket中。迁移的数据源和迁移目的地都是OSS的Bucket。 各方法的选择如下: OSS跨区域复制 源Bucket和目标Bucket属于同一个用户,且分属不同的区域。源Bucket、目标Bucket存储类型都不是归档类型: 说明:如果希望源Bucket历史数据迁移(复制到)目标Bucket后,源Bucket的变更(新增、更新、删除)不再同步到目标Bucket,可以在控制台关闭源Bucket的跨区域复制。 OssImport 更适合数据量较大(如大于10TB)历史数据迁移场景。 OSS API/SDK Copy Object、Upload Part Copy 建议优先使用ossImport或跨区域复制,除非用户有更细化或特性的需求,且有一定的开发能力。 其他如果问题还未能解决,请联系售后技术支持。

2019-12-01 23:31:46 0 浏览量 回答数 0

回答

能干的多了去了看下面弹性计算云服务器ECS:可弹性扩展、安全、稳定、易用的计算服务块存储:可弹性扩展、高性能、高可靠的块级随机存储专有网络 VPC:帮您轻松构建逻辑隔离的专有网络负载均衡:对多台云服务器进行流量分发的负载均衡服务弹性伸缩:自动调整弹性计算资源的管理服务资源编排:批量创建、管理、配置云计算资源容器服务:应用全生命周期管理的Docker服务高性能计算HPC:加速深度学习、渲染和科学计算的GPU物理机批量计算:简单易用的大规模并行批处理计算服务E-MapReduce:基于Hadoop/Spark的大数据处理分析服务数据库云数据库RDS:完全兼容MySQL,SQLServer,PostgreSQL云数据库MongoDB版:三节点副本集保证高可用云数据库Redis版:兼容开源Redis协议的Key-Value类型云数据库Memcache版:在线缓存服务,为热点数据的访问提供高速响应PB级云数据库PetaData:支持PB级海量数据存储的分布式关系型数据库云数据库HybridDB:基于Greenplum Database的MPP数据仓库云数据库OceanBase:金融级高可靠、高性能、分布式自研数据库数据传输:比GoldenGate更易用,阿里异地多活基础架构数据管理:比phpMyadmin更强大,比Navicat更易用存储对象存储OSS:海量、安全和高可靠的云存储服务文件存储:无限扩展、多共享、标准文件协议的文件存储服务归档存储:海量数据的长期归档、备份服务块存储:可弹性扩展、高性能、高可靠的块级随机存储表格存储:高并发、低延时、无限容量的Nosql数据存储服务网络CDN:跨运营商、跨地域全网覆盖的网络加速服务专有网络 VPC:帮您轻松构建逻辑隔离的专有网络高速通道:高速稳定的VPC互联和专线接入服务NAT网关:支持NAT转发、共享带宽的VPC网关大数据(数加)MaxCompute:原名ODPS,是一种快速、完全托管的TB/PB级数据仓库解决方案大数据开发套件:提供可视化开发界面、离线任务调度运维、快速数据集成、多人协同工作等功能,拥有强大的Open API为数据应用开发者提供良好的再创作生态DataV数据可视化:专精于业务数据与地理信息融合的大数据可视化,通过图形界面轻松搭建专业的可视化应用, 满足您日常业务监控、调度、会展演示等多场景使用需求关系网络分析:基于关系网络的大数据可视化分析平台,针对数据情报侦察场景赋能,如打击虚假交易,审理保险骗赔,案件还原研判等推荐引擎:推荐服务框架,用于实时预测用户对物品偏好,支持 A/B Test 效果对比公众趋势分析:利用语义分析、情感算法和机器学习,分析公众对品牌形象、热点事件和公共政策的认知趋势企业图谱:提供企业多维度信息查询,方便企业构建基于企业画像及企业关系网络的风险控制、市场监测等企业级服务数据集成:稳定高效、弹性伸缩的数据同步平台,为阿里云各个云产品提供离线(批量)数据进出通道分析型数据库:在毫秒级针对千亿级数据进行即时的多维分析透视和业务探索流计算:流式大数据分析平台,提供给用户在云上进行流式数据实时化分析工具人工智能机器学习:基于阿里云分布式计算引擎的一款机器学习算法平台,用户通过拖拉拽的方式可视化的操作组件来进行试验,平台提供了丰富的组件,包括数据预处理、特征工程、算法组件、预测与评估语音识别与合成:基于语音识别、语音合成、自然语言理解等技术,为企业在多种实际应用场景下,赋予产品“能听、会说、懂你”式的智能人机交互体验人脸识别:提供图像和视频帧中人脸分析的在线服务,包括人脸检测、人脸特征提取、人脸年龄估计和性别识别、人脸关键点定位等独立服务模块印刷文字识别:将图片中的文字识别出来,包括身份证文字识别、门店招牌识别、行驶证识别、驾驶证识别、名片识别等证件类文字识别场景云安全(云盾)服务器安全(安骑士):由轻量级Agent和云端组成,集检测、修复、防御为一体,提供网站后门查杀、通用Web软件0day漏洞修复、安全基线巡检、主机访问控制等功能,保障服务器安全DDoS高防IP:云盾DDoS高防IP是针对互联网服务器(包括非阿里云主机)在遭受大流量的DDoS攻击后导致服务不可用的情况下,推出的付费增值服务,用户可以通过配置高防IP,将攻击流量引流到高防IP,确保源站的稳定可靠Web应用防火墙:网站必备的一款安全防护产品。 通过分析网站的访问请求、过滤异常攻击,保护网站业务可用及资产数据安全加密服务:满足云上数据加密,密钥管理、加解密运算需求的数据安全解决方案CA证书服务:云上签发Symantec、CFCA、GeoTrust SSL数字证书,部署简单,轻松实现全站HTTPS化,防监听、防劫持,呈现给用户可信的网站访问数据风控:凝聚阿里多年业务风控经验,专业、实时对抗垃圾注册、刷库撞库、活动作弊、论坛灌水等严重威胁互联网业务安全的风险绿网:智能识别文本、图片、视频等多媒体的内容违规风险,如涉黄,暴恐,涉政等,省去90%人力成本安全管家:基于阿里云多年安全实践经验为云上用户提供的全方位安全技术和咨询服务,为云上用户建立和持续优化云安全防御体系,保障用户业务安全云盾混合云:在用户自有IDC、专有云、公共云、混合云等多种业务环境为用户建设涵盖网络安全、应用安全、主机安全、安全态势感知的全方位互联网安全攻防体系态势感知:安全大数据分析平台,通过机器学习和结合全网威胁情报,发现传统防御软件无法覆盖的网络威胁,溯源攻击手段、并且提供可行动的解决方案先知:全球顶尖白帽子和安全公司帮你找漏洞,最私密的安全众测平台。全面体检,提早发现业务漏洞及风险,按效果付费移动安全:为移动APP提供安全漏洞、恶意代码、仿冒应用等检测服务,并可对应用进行安全增强,提高反破解和反逆向能力。互联网中间件企业级分布式应用服务EDAS:以应用为中心的中间件PaaS平台、消息队列MQ:Apache RocketMQ商业版企业级异步通信中间件分布式关系型数据库服务DRDS:水平拆分/读写分离的在线分布式数据库服务云服务总线CSB:企业级互联网能力开放平台业务实施监控服务ARMS:端到端一体化实时监控解决方案产品分析E-MapReduce:基于Hadoop/Spark的大数据处理分析服务云数据库HybirdDB:基于Greenplum Database的MPP数据仓库高性能计算HPC:加速深度学习、渲染和科学计算的GPU物理机大数据计算服务MaxCompute:TB/PB级数据仓库解决方案分析型数据库:海量数据实时高并发在线分析开放搜索:结构化数据搜索托管服务管理与监控云监控:指标监控与报警服务访问控制:管理多因素认证、子账号与授权、角色与STS令牌资源编排:批量创建、管理、配置云计算资源操作审计:详细记录控制台和API操作密钥管理服务:安全、易用、低成本的密钥管理服务应用服务日志服务:针对日志收集、存储、查询和分析的服务开放搜索:结构化数据搜索托管服务性能测试:性能云测试平台,帮您轻松完成系统性能评估邮件推送:事务/批量邮件推送,验证码/通知短信服务API网关:高性能、高可用的API托管服务,低成本开放API物联网套件:助您快速搭建稳定可靠的物联网应用消息服务:大规模、高可靠、高并发访问和超强消息堆积能力视频服务视频点播:安全、弹性、高可定制的点播服务媒体转码:为多媒体数据提供的转码计算服务视频直播:低延迟、高并发的音频视频直播服务移动服务移动推送:移动应用通知与消息推送服务短信服务:验证码和短信通知服务,三网合一快速到达HTTPDNS:移动应用域名防劫持和精确调整服务移动安全:为移动应用提供全生命周期安全服务移动数据分析:移动应用数据采集、分析、展示和数据输出服务移动加速:移动应用访问加速云通信短信服务:验证码和短信通知服务,三网合一快速到达语音服务:语音通知和语音验证,支持多方通话流量服务:轻松玩转手机流量,物联卡专供物联终端使用私密专线:号码隔离,保护双方的隐私信息移动推送:移动应用通知与消息推送服务消息服务:大规模、高可靠、高并发访问和超强消息堆积能力邮件推送:事务邮件、通知邮件和批量邮件的快速发送

巴洛克上校 2019-12-02 00:25:55 0 浏览量 回答数 0

回答

转自:阿飞的博客 一、数据库技术选型的思考维度 我们做选型的时候首先要问: 谁选型?是负责采购的同学、 DBA 还是业务研发? 如果选型的是采购的同学,他们更注重成本,包括存储方式、网络需求等。 如果选型的是 DBA 同学,他们关心的: ① 运维成本 首先是运维成本,包括监控告警是否完善、是否有备份恢复机制、升级和迁移的成本是否高、社区是否稳定、是否方便调优、排障是否简易等; ② 稳定性 其次,DBA会关注稳定性,包括是否支持数据多副本、服务高可用、多写多活等; ③ 性能 第三是性能,包括延迟、QPS 以及是否支持更高级的分级存储功能等; ④ 拓展性 第四是扩展性,如果业务的需求不确定,是否容易横向扩展和纵向扩容; ⑤ 安全 最后是安全,需要符合审计要求,不容易出现 SQL 注入或拖库情况。 ⑥ 其他 除了采购和 DBA之外,后台应用研发的同学同样会关注稳定性、性能、扩展性等问题,同时也非常关注数据库接口是否便于开发,是否便于修改数据库 schema 等问题。 接下来我们来看一下爱奇艺使用的数据库类型: MySQL,互联网业务必备系统; TiDB,爱奇艺的 TiDB 实践会有另外的具体介绍; Redis,KV 数据库,互联网公司标配; Couchbase,这个在爱奇艺用得比较多,但国内互联网公司用得比较少,接下来的部分会详细说明; 其他,比如 MongoDB、图数据库、自研 KV 数据库 HiKV 等; 大数据分析相关系统,比如 Hive、Impala 等等。 可以看到爱奇艺的数据库种类还是很多的,这会造成业务开发的同学可能不太清楚在他的业务场景下应该选用哪种数据库系统。 那么,我们先对这些数据库按照接口(SQL、NoSQL)和面向的业务场景(OLTP、OLAP)这两位维度进行一个简单非严谨的分类。 下图中,左上角是面向 OLTP、支持 SQL 的这样一类系统,例如 MySQL,一般支持事务不同的隔离级别, QPS 要求比较高,延时比较低,主要用于交易信息和关键数据的存储,比如订单、VIP 信息等。 左下角是 NoSQL 数据库,是一类针对特殊场景做优化的系统,schema 一般比较简单,吞吐量较高、延迟较低,一般用作缓存或者 KV 数据库。 整个右侧都是 OLAP 的大数据分析系统,包括 Clickhouse、Impala等,一般支持SQL、不支持事务,扩展性比较好,可以通过加机器增加数据的存储量,响应延迟较长。 还有一类数据库是比较中立的,在数据量比较小的时候性能比较好,在数据量较大或复杂查询的时候性能也不差,一般通过不同的存储引擎和查询引擎来满足不同的业务需求,我们把它叫做 HTAP,TiDB 就是这样一种数据库。 二、iQIYI对数据库的优化与完善 前面我们提到了很多种的数据库,那么接下来就和大家介绍一下在爱奇艺我们是怎么使用这些数据库的。 1、MySQL在爱奇艺的使用 ① MySQL 首先是 MySQL。MySQL 基本使用方式是 master-slave + 半同步,支持每周全备+每日增量备份。我们做了一些基本功能的增强,首先是增强了数据恢复工具 Xtrabackup 的性能。 之前遇到一个情况,我们有一个全量库是 300G 数据,增量库每天 70G 数据,总数据量 700G 左右。我们当时只需要恢复一个表的数据,但该工具不支持单表恢复,且整库恢复需要 5 个小时。 针对这个情况我们具体排查了原因,发现在数据恢复的过程中需要进行多次写盘的 IO 操作并且有很多串行操作,所以我们做了一些优化。例如删减过程中的一些写盘操作,减少落盘并将数据处理并行化,优化后整库恢复耗时减少到 100 分钟,而且可以直接恢复单表数据。 然后是适配 DDL 和 DML 工具到内部系统,gh-ostt 和 oak-online-alter-table 在数据量大的时候会造成 master-slave 延时,所以我们在使用工具的时候也增加了延时上的考虑,实时探测Master-Slave 库之间延时的情况,如果延时较大会暂停工具的使用,恢复到正常水平再继续。 ② MySQL高可用 第二是 MySQL 高可用。Master-slave 加上半同步这种高可用方式不太完善,所以我们参照了 MHA 并进行了改动,采用 master + agent 的方式。Agent 在每一个物理机上部署,可以监控这个物理机上的所有实例的状态,周期性地向 master 发送心跳,Master 会实时监测各个Agent的状态。 如果 MySQL故障,会启动 Binlog 补偿机制,并切换访问域名完成 failover。考虑到数据库跨机房跨地区部署的情况,MHA 的 master 我们也做了高可用设计,众多 master 会通过 raft 组成一个 raft group,类似 TiDB 的 PD 模块。目前 MySQL failover 策略支持三种方式:同机房、同地域跨机房以及跨地域。 ③ MySQL拓展能力 第三是提高MySQL扩展能力,以提供更大容量的数据存储。扩展方式有 SDK,例如开源的 ShardingSphere,在爱奇艺的使用也比较广泛。另外就是 Proxy,开源的就更多了。但是 SDK 和 Proxy 使用的问题是支持的 SQL 语句简单,扩容难度大,依赖较多且运维复杂,所以部分业务已经迁移至 TiDB。 ④ 审计 第四是审计。我们在 MySQL 上做了一个插件获取全量 SQL 操作,后端打到 Kafka,下游再接入包括 Clickhouse 等目标端进行 SQL 统计分析。除此之外还有安全策略,包括主动探索是否有 SQL 注入及是否存在拖库情况等,并触发对应的告警。 MySQL 审计插件最大的问题是如何降低对 MySQL 性能的影响,对此我们进行了一些测试,发现使用 General Log 对性能损耗较大,有 10%~20% 的降低。 于是我们通过接口来获取 MySQL 插件里的监控项,再把监控项放到 buffer 里边,用两级的 RingBuffer 来保证数据的写入不会有锁资源竞争。在这个插件里再启动一个线程,从 RingBuffer 里读取数据并把数据打包写到 FIFO 管道里。 我们在每台 MySQL 的物理机里再启动一个 Agent,从管道里阻塞地读取数据发至 Kafka。优化后我们再次进行压测,在每台机器上有 15 万的更新、删除或插入操作下不会丢失数据,性能损耗一般情况下小于 2%。 目前已经在公司内部的集群上线了一年时间,运行比较稳定,上线和下线对业务没有影响。 ⑤ 分级存储 第五是分级存储。MySQL 里会存一些过程性的数据,即只需要读写最近一段时间存入的数据,过段时间这些数据就不需要了,需要进行定时清理。 分级存储就是在 MySQL 之上又用了其他存储方式,例如 TiDB 或其他 TokuDB,两者之间可以进行数据自动搬迁和自动归档,同时前端通过 SDK + Proxy 来做统一的访问入口。这样一来,业务的开发同学只需要将数据存入 MySQL 里,读取时可能从后端接入的任意数据库读出。这种方式目前只是过渡使用,之后会根据 TiDB 的特性进行逐步迁移。 Redis在爱奇艺的使用 接下来是 Redis。Redis 也是使用 master - slave 这种方式,由于网络的复杂性我们对 Sentinel 的部署进行了一些特殊配置,在多机房的情况下每个机房配置一定数量 Sentinel 来避免脑裂。 备份恢复方面介绍一个我们的特殊场景,虽然 Redis 是一个缓存,但我们发现不少的业务同学会把它当做一个 KVDB 来使用,在某些情况下会造成数据的丢失。 所以我们做了一个 Redis 实时备份功能,启动一个进程伪装成 Redis 的 Slave 实时获取数据,再放到后端的 KV 存储里,例如 ScyllaDB,如果要恢复就可以从 ScyllaDB 里把数据拉出来。 我们在用 Redis 时最大的痛点就是它对网络的延迟或抖动非常敏感。如有抖动造成 Redis Master 超时,会由 Sentinel 重新选出一个新的节点成为 Master,再把该节点上的数据同步到所有 Slave 上,此过程中数据会放在 Master 节点的 Buffer 里,如果写入的 QPS 很高会造成 Buffer 满溢。如果 Buffer 满后 RDB 文件还没有拷贝过去,重建过程就会失败。 基于这种情况,我们对 Redis 告警做了自动化优化,如有大量 master - slave 重建失败,我们会动态调整一些参数,例如把 Buffer 临时调大等, 此外我们还做了 Redis 集群的自动扩缩容功能。 我们在做 Redis 开发时如果是 Java 语言都会用到 Jedis。用 Jedis 访问客户端分片的 Redis 集群,如果某个分片发生了故障或者 failover,Jedis 就会对所有后端的分片重建连接。如果某一分片发生问题,整个 Redis 的访问性能和 QPS 会大幅降低。针对这个情况我们优化了 Jedis,如果某个分片发生故障,就只针对这个分片进行重建。 在业务访问 Redis 时我们会对 Master 绑定一个读写域名,多个从库绑定读域名。但如果我们进行 Master failover,会将读写域名从某旧 Master 解绑,再绑定到新 Master 节点上。 DNS 本身有一个超时时间,所以数据库做完 failover 后业务程序里没有立刻获取到新的 Master 节点的 IP的话,有可能还会连到原来的机器上,造成访问失败。 我们的解决方法是把 DNS 的 TTL 缩短,但对 DNS 服务又会造成很大的压力,所以我们在 SDK 上提供 Redis 的名字服务 RNS,RNS 从 Sentinel 里获取集群的拓扑和拓扑的变化情况,如果集群 failover,Sentinel 会接到通知,客户端就可以通过 RNS 来获取新的 Master 节点的 IP 地址。我们去掉域名,通过 IP 地址来访问整个集群,屏蔽了 DNS 的超时,缩短了故障的恢复时间。 SDK 上还做了一些功能,例如 Load Balance 以及故障检测,比如某个节点延时较高的话会被临时熔断等。 客户端分片的方式会造成 Redis 的扩容非常痛苦,如果客户端已经进行了一定量的分片,之后再增加就会非常艰难。 Redis 在 3.0 版本后会提供 Redis Cluster,因为功能受限在爱奇艺应用的不是很多,例如不支持显示跨 DC 部署和访问,读写只在主库上等。 我们某些业务场景下会使用 Redis 集群,例如数据库访问只发生在本 DC,我们会在 DC 内部进行 Cluster 部署。 但有些业务在使用的过程中还是想做 failover,如果集群故障可以切换到其他集群。根据这种情况我们做了一个 Proxy,读写都通过它来进行。写入数据时 Proxy 会做一个旁路,把新增的数据写在 Kafka 里,后台启用同步程序再把 Kafka 里的数据同步到其他集群,但存在一些限制,比如我们没有做冲突检测,所以集群间数据需要业务的同学做单元化。线上环境的Redis Cluster 集群间场景跨 DC 同步 需要 50 毫秒左右的时间。 2、Couchbase在爱奇艺的使用 Redis 虽然提供 Cluster 这种部署方式,但存在一些问题。所以数据量较大的时候(经验是 160G),就不推荐 Redis 了,而是采用另一种存储方式 Couchbase。 Couchbase 在国内互联网公司用的比较少,一开始我们是把他当做一个 Memcached 来使用的,即纯粹的缓存系统。 但其实它性能还是比较强大的,是一个分布式高性能的 KV 系统,支持多种存储引擎 (bucket)。第一种是 Memcached bucket,使用方式和 Memcached 一样为 KV 存储,不支持数据持久化也没有数据副本,如果节点故障会丢失数据; 第二种是 Couchbase bucket,支持数据持久化,使用 Json 写入,有副本,我们一般会在线上配置两个副本,如果新加节点会对数据进行 rebalance,爱奇艺使用的一般是 Couchbase bucket 这种配置。 Couchbase 数据的分布如下图,数据写入时在客户端上会先进行一次哈希运算,运算完后会定位 Key 在哪一个 vBucket (相当于数据库里的某个分片)。之后客户端会根据 Cluster Map 发送信息至对应的服务端,客户端的 Cluster Map 保存的是 vBucket 和服务器的映射关系,在服务端数据迁移的过程中客户端的 Cluster Map 映射关系会动态更新,因此客户端对于服务端的 failover 操作不需要做特殊处理,但可能在 rebalance 过程中会有短暂的超时,导致的告警对业务影响不大。 Couchbase 在爱奇艺应用比较早,2012 年还没有 Redis Cluster 的时候就开始使用了。集群管理使用 erlang 语言开发,最大功能是进行集群间的复制,提供多种复制方式:单向、双向、星型、环式、链式等。 爱奇艺从最初的 1.8 版本使用到如今的 5.0 版本,正在调研的 6.0,中间也遇到了很多坑,例如 NTP 时间配置出错会导致崩溃,如果每个集群对外 XDCR 并发过高导致不稳定,同步方向变更会导致数据丢失等等,我们通过运维和一些外部工具来进行规避。 Couchbase 的集群是独立集群,集群间的数据同步通过 XDCR,我们一般配置为双向同步。对于业务来说,如果 Cluster 1 写入, Cluster 2 不写入,正常情况下客户端会写 Cluster 1。如果 Cluster 1 有故障,我们提供了一个 Java SDK,可以在配置中心把写入更改到 Cluster 2,把原来到 Cluster 1 的连接逐步断掉再与Cluster 2 新建连接。这种集群 failover 的过程对于客户端来说是相对透明和无感的。 3、爱奇艺自研数据库HiKV的使用 Couchbase 虽然性能非常高,并且数据的存储可以超过内存。但是,如果数据量超过内存 75% 这个阈值,性能就会下降地特别快。在爱奇艺,我们会把数据量控制在可用内存的范围之内,当做内存数据库使用。但是它的成本非常高,所以我们后面又开发了一个新的数据库—— HiKV。 开发 HiKV 的目的是为了把一些对性能要求没那么高的 Couchbase 应用迁移到 HiKV 上。HiKV 基于开源系统 ScyllaDB,主要使用了其分布式数据库的管理功能,增加了单机存储引擎 HiKV。 ScyllaDB 比较吸引人的是它宣称性能高于 Cassandra 十倍,又完全兼容 Cassandra 接口,设计基本一致,可以视为 C++ 版 Cassandra 系统。 ScyllaDB 性能的提升主要是使用了一些新的技术框架,例如 C++ 异步框架 seastar,主要原理是在j每台物理机的核上会 attach 一个应用线程,每个核上有自己独立的内存、网络、IO 资源,核与核之间没有数据共享但可以通信,其最大的好处是内存访问无锁,没有冲突过程。 当一个数据读或写到达 ScyllaDB 的 server 时,会按照哈希算法来判断请求的 Key 是否是该线程需要处理的,如果是则本线程处理,否则会转发到对应线程上去。 除此之外,它还支持多副本、多数据中心、多写多活,功能比较强大。 在爱奇艺,我们基于 SSD 做了一个 KV 存储引擎。Key 放在内存里,Value 放在盘上的文件里,我们在读和写文件时,只需要在内存索引里定位,再进行一次盘的 IO 开销就可以把数据读出来,相比 ScyllaDB 原本基于 LSM Tree 的存储引擎方式对 IO 的开销较少。 索引数据全部放在内存中,如果索引长度较长会限制单机可存储的数据量,于是我们通过开发定长的内存分布器,对于比较长的 Key 做摘要缩短长度至 20 字节,采用红黑树索引,限制每条记录在内存里的索引长度至为 64 字节。内存数据要定期做 checkpoint,客户端要做限流、熔断等。 HiKV 目前在爱奇艺应用范围比较大,截至目前已经替换了 30% 的 Couchbase,有效地降低了存储成本。 4、爱奇艺的数据库运维管理 爱奇艺数据库种类较多,如何高效地运维和管理这些数据库也是经历了不同的阶段。 最初我们通过 DBA 写脚本的方式管理,如果脚本出问题就找 DBA,导致了 DBA 特别忙碌。 第二个阶段我们考虑让大家自己去查问题的答案,于是在内部构建了一个私有云,通过 Web 的方式展示数据库运行状态,让业务的同学可以自己去申请集群,一些简单的操作也可以通过自服务平台实现,解放了 DBA。一些需要人工处理的大型运维操作经常会造成一些人为故障,敲错参数造成数据丢失等。 于是在第三个阶段我们把运维操作 Web 化,通过网页点击可以进行 90% 的操作。 第四个阶段让经验丰富的 DBA 把自身经验变成一些工具,比如有业务同学说 MySQL master-slave 延时了,DBA 会通过一系列操作排查问题。现在我们把这些操作串起来形成一套工具,出问题时业务的同学可以自己通过网页上的一键诊断工具去排查,自助进行处理。 除此之外我们还会定期做预警检查,对业务集群里潜在的问题进行预警报告;开发智能客服,回答问题;通过监控的数据对实例打标签,进行削峰填谷地智能调度,提高资源利用率。 三、不同场景下数据库选型建议 1、实用数据库选型树 最后来说一些具体数据库选型建议。这是 DBA 和业务一起,通过经验得出来的一些结论。 对于关系型数据库的选型来说,可以从数据量和扩展性两个维度考虑,再根据数据库有没有冷备、要不要使用 Toku 存储引擎,要不要使用 Proxy 等等进行抉择。 NoSQL 也是什么情况下使用 master-slave,什么情况下使用客户端分片、集群、Couchbase、HiKV 等,我们内部自服务平台上都有这个选型树信息。 2、一些思考 ① 需求 我们在选型时先思考需求,判断需求是否真实。 你可以从数据量、QPS、延时等方面考虑需求,但这些都是真实需求吗?是否可以通过其他方式把这个需求消耗掉,例如在数据量大的情况下可以先做数据编码或者压缩,数据量可能就降下来了。 不要把所有需求都推到数据库层面,它其实是一个兜底的系统。 ② 选择 第二个思考的点是对于某个数据库系统或是某个技术选型我们应该考虑什么?是因为热门吗?还是因为技术上比较先进?但是不是能真正地解决你的问题?如果你数据量不是很大的话就不需要选择可以存储大数据量的系统。 ③ 放弃 第三是放弃,当你放弃一个系统时真的是因为不好用吗?还是没有用好?放弃一个东西很难,但在放弃时最好有一个充分的理由,包括实测的结果。 ④ 自研 第四是自研,在需要自己开发数据库时可以参考和使用一些成熟的产品,但不要盲目自研。 ⑤ 开源 最后是开源,要有拥抱开源的态度。

茶什i 2019-12-27 14:17:56 0 浏览量 回答数 0

回答

转自:思否 话说当下技术圈的朋友,一起聚个会聊个天,如果不会点大数据的知识,感觉都融入不了圈子,为了以后聚会时让你有聊有料,接下来就跟随我的讲述,一起与大数据混个脸熟吧,不过在“撩”大数据之前,还是先揭秘一下研发这些年我们都经历了啥? 缘起:应用系统架构的从 0 到 1 揭秘:研发这些年我们都经历了啥? 大道至简。生活在技术圈里,大家静下来想想,无论一个应用系统多庞大、多复杂,无非也就是由一个漂亮的网站门面 + 一个丑陋的管理模块 + 一个闷头干活的定时任务三大板块组成。 我们负责的应用系统当然也不例外,起初设计的时候三大模块绑在一起(All in one),线上跑一个 Tomcat 轻松就搞定,可谓是像极了一个大泥球。 衍化至繁。由于网站模块、管理平台、定时任务三大模块绑定在一起,开发协作会比较麻烦,时不时会有代码合并冲突出现;线上应用升级时,也会导致其它模块暂时不能使用,例如如果修改了一个定时任务的配置,可能会导致网站、管理平台的服务暂时不能用。面对诸多的不便,就不得不对 All in one 的大泥球系统进行拆解。 随着产品需求的快速迭代,网站 WEB 功能逐渐增多,我们起初设计时雄心勃勃(All in one 的单体架构),以为直接按模块设计叠加实现就好了,谁成想系统越发显得臃肿(想想也是走弯路啦!)。所以不得不改变实现思路,让模块服务下沉,分布式思想若现——让原来网站 WEB 一个系统做的事,变成由子系统分担去完成。 应用架构的演变,服务模块化拆分,随之而来的就是业务日志、业务数据散落在各处。随着业务的推广,业务量逐日增多,沉淀的数据日益庞大,在业务层面、运维层面上的很多问题,逐渐开始暴露。 在业务层面上,面对监管机构的监管,整合提取散落在各地的海量数据稍显困难;海量数据散落,想做个统计分析报表也非常不易。在运维层面上,由于缺少统一的日志归档,想基于日志做快速分析也比较困难;如果想从散落在各模块的日志中,进行调用链路的分析也是相当费劲。 面对上述问题,此时一个硕大的红色问号出现在我们面前,到底该如何解决? 面对结构化的业务数据,不妨先考虑采用国内比较成熟的开源数据库中间件 Sharding-JDBC、MyCat 看是否能够解决业务问题;面对日志数据,可以考虑采用 ELK 等开源组件。如果以上方案或者能尝试的方式都无法帮我们解决,尝试搬出大数据吧。 那到底什么时候需要用大数据呢?大数据到底能帮我们解决什么问题呢?注意,前方高能预警,门外汉“撩”大数据的正确姿势即将开启。 邂逅:一起撬开大数据之门 槽点:门外汉“撩”大数据的正确姿势 与大数据的邂逅,源于两个头痛的问题。第一个问题是海量数据的存储,如何解决?第二个问题是海量数据的计算,如何解决? 面对这两个头痛的问题,不得不提及谷歌的“三驾马车”(分布式文件系统 GFS、MapReduce 和 BigTable),谷歌“三驾马车”的出现,奠定了大数据发展的基石,毫不夸张地说,没有谷歌的“三驾马车”就没有大数据,所以接下来很有必要逐一认识。 大家都知道,谷歌搜索引擎每天要抓取数以亿计的网页,那么抓取的海量数据该怎么存储? 谷歌痛则思变,重磅推出分布式文件系统 GFS。面对谷歌推出的分布式文件系统 GFS 架构,如 PPT 中示意,参与角色着实很简单,主要分为 GFS Master(主服务器)、GFS Chunkserver(块存储服务器)、GFS Client(客户端)。 不过对于首次接触这个的你,可能还是一脸懵 ,大家心莫慌,接下来容我抽象一下。 GFS Master 我们姑且认为是古代的皇上,统筹全局,运筹帷幄。主要负责掌控管理所有文件系统的元数据,包括文件和块的命名空间、从文件到块的映射、每个块所在的节点位置。说白了,就是要维护哪个文件存在哪些文件服务器上的元数据信息,并且定期通过心跳机制与每一个 GFS Chunkserver 通信,向其发送指令并收集其状态。 GFS Chunkserver 可以认为是宰相,因为宰相肚子里面能撑船,能够海纳百川。主要提供数据块的存储服务,以文件的形式存储于 Chunkserver 上。 GFS Client 可以认为是使者,对外提供一套类似传统文件系统的 API 接口,对内主要通过与皇帝通信来获取元数据,然后直接和宰相交互,来进行所有的数据操作。 为了让大家对 GFS 背后的读写流程有更多认识,献上两首歌谣。 到这里,大家应该对分布式文件系统 GFS 不再陌生,以后在饭桌上讨论该话题时,也能与朋友交涉两嗓子啦。 不过这还只是了解了海量数据怎么存储,那如何从海量数据存储中,快速计算出我们想要的结果呢? 面对海量数据的计算,谷歌再次创新,推出了 MapReduce 编程模型及实现。 MapReduce 主要是采取分而治之的思想,通俗地讲,主要是将一个大规模的问题,分成多个小规模的问题,把多个小规模问题解决,然后再合并小规模问题的结果,就能够解决大规模的问题。 也有人说 MapReduce 就像光头强的锯子和锤子,世界上的万事万物都可以先锯几下,然后再锤几下,就能轻松搞定,至于锯子怎么锯,锤子怎么锤,那就是个人的手艺了。 这么解释不免显得枯燥乏味,我们不妨换种方式,走进生活真实感受 MapReduce。 斗地主估计大家都玩过,每次开玩之前,都会统计一副牌的张数到底够不够,最快的步骤莫过于:分几份给大家一起数,最后大家把数累加,算总张数,接着就可以愉快地玩耍啦... ...这不就是分而治之的思想吗?!不得不说架构思想来源于人们的生活! 再举个不太贴切的例子来感受MapReduce 背后的运转流程,估计很多人掰过玉米,每当玉米成熟的季节,地主家就开始忙碌起来。 首先地主将一亩地的玉米分给处于空闲状态的长工来处理;专门负责掰玉米的长工领取任务,开始掰玉米操作(Map 操作),并把掰好的玉米放到在麻袋里(缓冲区),麻袋装不下时,会被装到木桶中(溢写),木桶被划分为蓝色的生玉米木桶、红色的熟玉米木桶(分区),地主通知二当家来“收”属于自己的那部分玉米,二当家收到地主的通知后,就到相应的长工那儿“拿回”属于自己的那部分玉米(Fetch 操作),二当家对收取的玉米进行处理(Reduce 操作),并把处理后的结果放入粮仓。 一个不太贴切的生活体验 + 一张画得不太对的丑图 = 苦涩难懂的技术,也不知道这样解释,你了解了多少?不过如果以后再谈大数据,知道 MapReduce 这个词的存在,那这次的分享就算成功(哈哈)。 MapReduce 解决了海量数据的计算问题,可谓是力作,但谷歌新的业务需求一直在不断出现。众所周知,谷歌要存储爬取的海量网页,由于网页会不断更新,所以要不断地针对同一个 URL 进行爬取,那么就需要能够存储一个 URL 不同时期的多个版本的网页内容。谷歌面临很多诸如此类的业务场景,面对此类头痛的需求,该怎么办? 谷歌重磅打造了一款类似以“URL + contents + time stamp”为 key,以“html 网页内容”为值的存储系统,于是就有了 BigTable 这个键值系统的存在(本文不展开详述)。 至此,两个头痛的问题就算解决了。面对海量数据存储难题,谷歌推出了分布式文件系统 GFS、结构化存储系统 BigTable;面对海量数据的计算难题,谷歌推出了 MapReduce。 不过静下来想想,GFS 也好、MapReduce 也罢,无非都是秉承了大道至简、一人掌权、其它人办事、人多力量大的设计理念。另外画龙画虎难画骨,建议闲暇之余也多些思考:为什么架构要这么设计?架构设计的目标到底是如何体现的? 基于谷歌的“三驾马车”,出现了一大堆开源的轮子,不得不说谷歌的“三驾马车”开启了大数据时代。了解了谷歌的“三驾马车”的设计理念后,再去看这些开源的轮子,应该会比较好上手。 好了,门外汉“撩”大数据就聊到这儿吧,希望通过上文的分享能够了解几个关键词:大道至简、衍化至繁、谷歌三驾马车(GFS、MapReduce、BigTable)、痛则思变、开源轮子。 白头:番外篇 扯淡:不妨换一种态度 本文至此也即将接近尾声,最后是番外篇~ 首先,借用日本剑道学习心诀“守、破、离”,希望我们一起做一个精进的人。 最后,在有限的时间内要多学习,不要停下学习的脚步,在了解和使用已经有的成熟技术之时,更要多思考,开创适合自己工作场景的解决方案。 文章来源:宜信技术学院 & 宜信支付结算团队技术分享第6期-宜信支付结算部支付研发团队高级工程师许赛赛《揭秘:“撩”大数据的正确姿势》 分享者:宜信支付结算部支付研发团队高级工程师许赛赛 原文首发于公号-野指针

茶什i 2020-01-10 15:19:51 0 浏览量 回答数 0

回答

一 系统介绍 Android 是Google开发的基于Linux平台的、开源的、智能手机操作系统。Android包括操作系统、中间件和应用程序,由于源代码开放,Android可以被移植到不同的硬件平台上。 围绕在Google的Android系统中,形成了移植开发和上层应用程序开发两个不同的开发方面。手机厂商从事移植开发工作,上层的应用程序开发可以由任何单位和个人完成,开发的过程可以基于真实的硬件系统,还可以基于仿真器环境。 作为一个手机平台,Android在技术上的优势主要有以下几点: - 全开放智能手机平台 - 多硬件平台的支持 - 使用众多的标准化技术 - 核心技术完整,统一 - 完善的SDK和文档 - 完善的辅助开发工具 Android的开发者可以在完备的开发环境中进行开发,Android的官方网站也提供了丰富的文档、资料。这样有利于Android系统的开发和运行在一个良好的生态环境中。 https://developer.android.com/about安卓开发者官方网站 从宏观的角度来看,Android是一个开放的软件系统,它包含了众多的源代码。从下至上,Android系统分成4个层次: 第1层次:Linux操作系统及驱动; 第2层次:本地代码(C/C++)框架; 第3层次:Java框架; 第4层次:Java应用程序。 Android系统的架构如图所示: 由于Android系统需要支持Java代码的运行,这部分内容是Android的运行环境(Runtime),由虚拟机和Java基本类组成。 对于Android应用程序的开发,主要关注第3层次和第4层次之间的接口。 二 学习路线 基础学习——JavaSE: 基础学习扩展——JavaEE: 基础学习扩展——Linux基础: Android开发学习——基础理论:系统架构分析: Android系统从底向上一共分了4层,每一层都把底层实现封装,并暴露调用接口给上一层。 Linux内核(Linux Kernel) Android运行在linux kernel 2.6之上,但是把linux内受GNU协议约束的部分做了取代,这样在Android的程序可以用于商业目的。 Linux 内核是硬件和软件层之间的抽象层。 中间件 中间件包括两部分: 核心库和运行时(libraries & Android runtime) 核心库包括,SurfaceManager 显示系统管理库,负责把2D或3D内容显示到屏幕;Media Framework 媒体库,负责支持图像,支持多种视频和音频的录制和回放;SQlite 数据库,一个功能强大的轻量级嵌入式关系数据库;WebKit 浏览器引擎等。 Dalvik虚拟机: 区别于Java虚拟机的是,每一个Android 应用程序都在它自己的进程中运行,都有一个属于自己的Dalvik 虚拟机,这一点可以让系统在运行时可以达到优化,程序间的影响大大降低。Dalvik虚拟机并非运行Java字节码,而是运行自己的字节码。 应用程序框架(Application Framework) 丰富而又可扩展性的视图(Views),可以用来构建应用程序, 它包括列表(lists),网格(grids), 文本框(text boxes),按钮( buttons), 可嵌入的web 浏览器。内容提供者(Content Providers)使得应用程序可以访问另一个应用程序的数据(如联系人数据库), 或者共享它们自己的数据。资源管理器(Resource Manager)提供非代码资源的访问,如本地字符串,图形,和布局文件( layoutfiles )。通知管理器(Notification Manager) 使得应用程序可以在状态栏中显示自定义的提示信息。活动管理器( Activity Manager) 用来管理应用程序生命周期并提供常用的导航回退功能。 三 基础知识 掌握java部分之后,可以使用开发工具进入android世界 您可以使用 Kotlin、Java 和 C++ 语言编写 Android 应用。Android SDK 工具会将您的代码连同任何数据和资源文件编译成一个 APK(Android 软件包),即带有 .apk 后缀的归档文件。一个 APK 文件包含 Android 应用的所有内容,它也是 Android 设备用来安装应用的文件。 每个 Android 应用都处于各自的安全沙盒中,并受以下 Android 安全功能的保护: • Android 操作系统是一种多用户 Linux 系统,其中的每个应用都是一个不同的用户; • 默认情况下,系统会为每个应用分配一个唯一的 Linux 用户 ID(该 ID 仅由系统使用,应用并不知晓)。系统会为应用中的所有文件设置权限,使得只有分配给该应用的用户 ID 才能访问这些文件; • 每个进程都拥有自己的虚拟机 (VM),因此应用代码独立于其他应用而运行。 • 默认情况下,每个应用都在其自己的 Linux 进程内运行。Android 系统会在需要执行任何应用组件时启动该进程,然后当不再需要该进程或系统必须为其他应用恢复内存时,其便会关闭该进程。 Android 系统实现了最小权限原则。换言之,默认情况下,每个应用只能访问执行其工作所需的组件,而不能访问其他组件。这样便能创建非常安全的环境,在此环境中,应用无法访问其未获得权限的系统部分。不过,应用仍可通过一些途径与其他应用共享数据以及访问系统服务: • 可以安排两个应用共享同一 Linux 用户 ID,在此情况下,二者便能访问彼此的文件。为节省系统资源,也可安排拥有相同用户 ID 的应用在同一 Linux 进程中运行,并共享同一 VM。应用还必须使用相同的证书进行签名。 • 应用可以请求访问设备数据(如用户的联系人、短信消息、可装载存储装置(SD 卡)、相机、蓝牙等)的权限。用户必须明确授予这些权限。如需了解详细信息,请参阅使用系统权限。 本文档的其余部分将介绍以下概念: • 用于定义应用的核心框架组件 • 用来声明组件和应用必需设备功能的清单文件。 • 与应用代码分离并允许应用针对各种设备配置适当优化其行为的资源。 应用组件 应用组件是 Android 应用的基本构建块。每个组件都是一个入口点,系统或用户可通过该入口点进入您的应用。有些组件会依赖于其他组件。 共有四种不同的应用组件类型: • Activity • 服务 • 广播接收器 • 内容提供程序 每种类型都有不同的用途和生命周期,后者会定义如何创建和销毁组件。以下部分将介绍应用组件的四种类型。 Activity Activity 是与用户交互的入口点。它表示拥有界面的单个屏幕。例如,电子邮件应用可能有一个显示新电子邮件列表的 Activity、一个用于撰写电子邮件的 Activity 以及一个用于阅读电子邮件的 Activity。尽管这些 Activity 通过协作在电子邮件应用中形成一种紧密结合的用户体验,但每个 Activity 都独立于其他 Activity 而存在。因此,其他应用可以启动其中任何一个 Activity(如果电子邮件应用允许)。例如,相机应用可以启动电子邮件应用内用于撰写新电子邮件的 Activity,以便用户共享图片。Activity 有助于完成系统和应用程序之间的以下重要交互: • 追踪用户当前关心的内容(屏幕上显示的内容),以确保系统继续运行托管 Activity 的进程。 • 了解先前使用的进程包含用户可能返回的内容(已停止的 Activity),从而更优先保留这些进程。 • 帮助应用处理终止其进程的情况,以便用户可以返回已恢复其先前状态的 Activity。 • 提供一种途径,让应用实现彼此之间的用户流,并让系统协调这些用户流。(此处最经典的示例是共享。) 您需将 Activity 作为 Activity 类的子类来实现。如需了解有关 Activity 类的更多信息,请参阅 Activity 开发者指南。 服务 服务是一个通用入口点,用于因各种原因使应用在后台保持运行状态。它是一种在后台运行的组件,用于执行长时间运行的操作或为远程进程执行作业。服务不提供界面。例如,当用户使用其他应用时,服务可能会在后台播放音乐或通过网络获取数据,但这不会阻断用户与 Activity 的交互。诸如 Activity 等其他组件可以启动服务,使该服务运行或绑定到该服务,以便与其进行交互。事实上,有两种截然不同的语义服务可以告知系统如何管理应用:已启动服务会告知系统使其运行至工作完毕。此类工作可以是在后台同步一些数据,或者在用户离开应用后继续播放音乐。在后台同步数据或播放音乐也代表了两种不同类型的已启动服务,而这些服务可以修改系统处理它们的方式: • 音乐播放是用户可直接感知的服务,因此,应用会向用户发送通知,表明其希望成为前台,从而告诉系统此消息;在此情况下,系统明白它应尽全力维持该服务进程运行,因为进程消失会令用户感到不快。 • 通常,用户不会意识到常规后台服务正处于运行状态,因此系统可以更自由地管理其进程。如果系统需要使用 RAM 来处理用户更迫切关注的内容,则其可能允许终止服务(然后在稍后的某个时刻重启服务)。 绑定服务之所以能运行,原因是某些其他应用(或系统)已表示希望使用该服务。从根本上讲,这是为另一个进程提供 API 的服务。因此,系统会知晓这些进程之间存在依赖关系,所以如果进程 A 绑定到进程 B 中的服务,系统便知道自己需使进程 B(及其服务)为进程 A 保持运行状态。此外,如果进程 A 是用户关心的内容,系统随即也知道将进程 B 视为用户关心的内容。由于存在灵活性(无论好坏),服务已成为非常有用的构建块,并且可实现各种高级系统概念。动态壁纸、通知侦听器、屏幕保护程序、输入方法、无障碍功能服务以及众多其他核心系统功能均可构建为在其运行时由应用实现、系统绑定的服务。 您需将服务作为 Service 的子类来实现。如需了解有关 Service 类的更多信息,请参阅服务开发者指南。 注意:如果您的应用面向 Android 5.0(API 级别 21)或更高版本,请使用 JobScheduler 类来调度操作。JobScheduler 的优势在于,它能通过优化作业调度来降低功耗,以及使用 Doze API,从而达到省电目的。如需了解有关使用此类的更多信息,请参阅 JobScheduler 参考文档。 广播接收器 借助广播接收器组件,系统能够在常规用户流之外向应用传递事件,从而允许应用响应系统范围内的广播通知。由于广播接收器是另一个明确定义的应用入口,因此系统甚至可以向当前未运行的应用传递广播。例如,应用可通过调度提醒来发布通知,以告知用户即将发生的事件。而且,通过将该提醒传递给应用的广播接收器,应用在提醒响起之前即无需继续运行。 许多广播均由系统发起,例如,通知屏幕已关闭、电池电量不足或已拍摄照片的广播。应用也可发起广播,例如,通知其他应用某些数据已下载至设备,并且可供其使用。尽管广播接收器不会显示界面,但其可以创建状态栏通知,在发生广播事件时提醒用户。但广播接收器更常见的用途只是作为通向其他组件的通道,旨在执行极少量的工作。例如,它可能会根据带 JobScheduler 的事件调度 JobService 来执行某项工作 广播接收器作为 BroadcastReceiver 的子类实现,并且每条广播都作为 Intent 对象进行传递。如需了解详细信息,请参阅 BroadcastReceiver 类。 内容提供程序 内容提供程序管理一组共享的应用数据,您可以将这些数据存储在文件系统、SQLite 数据库、网络中或者您的应用可访问的任何其他持久化存储位置。其他应用可通过内容提供程序查询或修改数据(如果内容提供程序允许)。例如,Android 系统可提供管理用户联系人信息的内容提供程序。 因此,任何拥有适当权限的应用均可查询内容提供程序(如 ContactsContract.Data),以读取和写入特定人员的相关信息。我们很容易将内容提供程序看作数据库上的抽象,因为其内置的大量 API 和支持时常适用于这一情况。但从系统设计的角度看,二者的核心目的不同。对系统而言,内容提供程序是应用的入口点,用于发布由 URI 架构识别的已命名数据项。因此,应用可以决定如何将其包含的数据映射到 URI 命名空间,进而将这些 URI 分发给其他实体。反之,这些实体也可使用分发的 URI 来访问数据。在管理应用的过程中,系统可以执行以下特殊操作: • 分配 URI 无需应用保持运行状态,因此 URI 可在其所属的应用退出后继续保留。当系统必须从相应的 URI 检索应用数据时,系统只需确保所属应用仍处于运行状态。 • 这些 URI 还会提供重要的细粒度安全模型。例如,应用可将其所拥有图像的 URI 放到剪贴板上,但将其内容提供程序锁定,以便其他应用程序无法随意访问它。当第二个应用尝试访问剪贴板上的 URI 时,系统可允许该应用通过临时的 URI 授权来访问数据,这样便只能访问 URI 后面的数据,而非第二个应用中的其他任何内容。 内容提供程序也适用于读取和写入您的应用不共享的私有数据。 内容提供程序作为 ContentProvider 的子类实现,并且其必须实现一组标准 API,以便其他应用能够执行事务。如需了解详细信息,请参阅内容提供程序开发者指南。 Android 系统设计的独特之处在于,任何应用都可启动其他应用的组件。例如,当您想让用户使用设备相机拍摄照片时,另一个应用可能也可执行该操作,因而您的应用便可使用该应用,而非自行产生一个 Activity 来拍摄照片。您无需加入甚至链接到该相机应用的代码。只需启动拍摄照片的相机应用中的 Activity 即可。完成拍摄时,系统甚至会将照片返回您的应用,以便您使用。对用户而言,这就如同相机是您应用的一部分。 当系统启动某个组件时,它会启动该应用的进程(如果尚未运行),并实例化该组件所需的类。例如,如果您的应用启动相机应用中拍摄照片的 Activity,则该 Activity 会在属于相机应用的进程(而非您的应用进程)中运行。因此,与大多数其他系统上的应用不同,Android 应用并没有单个入口点(即没有 main() 函数)。 由于系统在单独的进程中运行每个应用,且其文件权限会限制对其他应用的访问,因此您的应用无法直接启动其他应用中的组件,但 Android 系统可以。如要启动其他应用中的组件,请向系统传递一条消息,说明启动特定组件的 Intent。系统随后便会为您启动该组件。 启动组件 在四种组件类型中,有三种(Activity、服务和广播接收器)均通过异步消息 Intent 进行启动。Intent 会在运行时对各个组件进行互相绑定。您可以将 Intent 视为从其他组件(无论该组件是属于您的应用还是其他应用)请求操作的信使。 您需使用 Intent 对象创建 Intent,该对象通过定义消息来启动特定组件(显式 Intent)或特定的组件类型(隐式 Intent)。 对于 Activity 和服务,Intent 会定义要执行的操作(例如,查看或发送某内容),并且可指定待操作数据的 URI,以及正在启动的组件可能需要了解的信息。例如,Intent 可能会传达对 Activity 的请求,以便显示图像或打开网页。在某些情况下,您可以通过启动 Activity 来接收结果,这样 Activity 还会返回 Intent 中的结果。例如,您可以发出一个 Intent,让用户选取某位联系人并将其返回给您。返回 Intent 包含指向所选联系人的 URI。 对于广播接收器,Intent 只会定义待广播的通知。例如,指示设备电池电量不足的广播只包含指示“电池电量不足”的已知操作字符串。 与 Activity、服务和广播接收器不同,内容提供程序并非由 Intent 启动。相反,它们会在成为 ContentResolver 的请求目标时启动。内容解析程序会通过内容提供程序处理所有直接事务,因此通过提供程序执行事务的组件便无需执行事务,而是改为在 ContentResolver 对象上调用方法。这会在内容提供程序与请求信息的组件之间留出一个抽象层(以确保安全)。 每种组件都有不同的启动方法: • 如要启动 Activity,您可以向 startActivity() 或 startActivityForResult() 传递 Intent(当您想让 Activity 返回结果时),或者为其安排新任务。 • 在 Android 5.0(API 级别 21)及更高版本中,您可以使用 JobScheduler 类来调度操作。对于早期 Android 版本,您可以通过向 startService() 传递 Intent 来启动服务(或对执行中的服务下达新指令)。您也可通过向将 bindService() 传递 Intent 来绑定到该服务。 • 您可以通过向 sendBroadcast()、sendOrderedBroadcast() 或 sendStickyBroadcast() 等方法传递 Intent 来发起广播。 • 您可以通过在 ContentResolver 上调用 query(),对内容提供程序执行查询。 如需了解有关 Intent 用法的详细信息,请参阅 Intent 和 Intent 过滤器文档。以下文档将为您详细介绍如何启动特定组件:Activity、服务、BroadcastReceiver 和内容提供程序。

问问小秘 2020-03-03 09:47:38 0 浏览量 回答数 0

问题

大数据时代——数据存储技术百问

yq传送门 2019-12-01 20:27:42 31965 浏览量 回答数 35

问题

常见问题 - 购买 - MySQL CPU 使用率高的原因和解决方法

李沃晟 2019-12-01 21:41:36 607 浏览量 回答数 0

问题

MySQL CPU 使用率高的原因和解决方法

云栖大讲堂 2019-12-01 21:32:14 1590 浏览量 回答数 0

问题

Spark,一种快速数据分析替代方案:报错

kun坤 2020-06-06 11:49:13 0 浏览量 回答数 1
阿里云大学 云服务器ECS com域名 网站域名whois查询 开发者平台 小程序定制 小程序开发 国内短信套餐包 开发者技术与产品 云数据库 图像识别 开发者问答 阿里云建站 阿里云备案 云市场 万网 阿里云帮助文档 免费套餐 开发者工具 SQL审核 小程序开发制作 视频内容分析 企业网站制作 视频集锦 代理记账服务 2020阿里巴巴研发效能峰会 企业建站模板 云效成长地图 高端建站 人工智能 阿里云云栖号 云栖号案例 云栖号直播