MaxCompute计费常见问题

简介: 在处理计费类问题前,请先仔细阅读计量计费说明。 Q:为什么SQL查询不同的分区,费用差异比较大? A:通常是由于费用较多的分区size比较大。您可以使用desc table_name partition(pt_spec)命令查看具体分区大小。 Q:在运行补数据后,费用为什么会产生较大波动? A:当您操作补数据时,会在补数据区间内每个周期都运行一次。例如您补30天的数据,天周期,则SQL被执

在处理计费类问题前,请先仔细阅读计量计费说明

Q:为什么SQL查询不同的分区,费用差异比较大?

A:通常是由于费用较多的分区size比较大。您可以使用desc table_name partition(pt_spec)命令查看具体分区大小。

Q:在运行补数据后,费用为什么会产生较大波动?

A:当您操作补数据时,会在补数据区间内每个周期都运行一次。例如您补30天的数据,天周期,则SQL被执行了30次,因此产生较大的费用。

注意:如果是补了一个区间的数据任务,在第一天有一个任务实例失败了。则当天的补数据实例会被置为失败,第二天的任务实例也不会开始运行(只有当天的全部任务实例都成功,第二天的任务实例才会开始运行)。

Q:把调度周期天改成小时后,为什么费用变多了?

A:调度周期改为小时后,每小时运行SQL任务,运行次数增加,所以费用比天调度多。

Q:运行全表扫描后,为什么会费用增加?

A:运行全表扫描后,每个分区的数据都需要计算一次。例如有一张表按时间(天)分区,存放了360天的数据,则运行全表扫描时需计算360次。同理,如果您的where条件语句覆盖了其他表中的字段,也会增加费用。

Q:在进行包年包月方式(按CU预付费)计费时,需要10CU起购,按量计费也是这样吗?

A:如果是按量计费,无需提前购买CU。您使用多少CU,就会扣取对应的费用。

Q:查看账单的时候发现我的MaxCompute包年包月服务,还是有预付费和后付费两项。其中预付费是包年包月的费用,后付费每天产生的费用来自于什么服务呢?

A:来自于存储服务:存储服务按照存储在MaxCompute的数据的容量大小进行阶梯计费,不支持预付费。

Q:我已经很多天没使用 大数据计算服务MaxCompute(按量付费) 功能了,但每天仍产生费用,这是什么问题?

A:通常这种情况费用来自于您的存储服务,您可以删除不需要的项目避免此类费用产生。

Q:计费方式改成包年后(10个CU), SQL运行等待时间太长(30分钟以上)。这种情况下我应该购买多少个CU才能获得分钟级别的响应?最大单表在100G以内。

A:出现等待过长的情况,可能是您的某个任务将10CU全部占用用了,如果想留一些资源给其他项目里的任务使用,您可以配置Quota组,同时您可以考虑增加CU个数。可以简单地做个估算,比如当前您占满10个CU的任务运行了40分钟,如果想让任务使用一半的时间:20分钟完成运行,那么CU需要增加到20个,同一时间每个任务用的worker数量可累加。您可以通过下列命令维护您的任务。

 
  1. desc instance instanceid
  2. 查看SQL任务的内容
  3. wait instanceid
  4. 查看任务输出
  5. kill instanceid
  6. 终止任务

同时建议您使用CU管家功能来监控CU的使用情况。

Q:MaxCompute服务没有续费的情况下,数据存放多久过期?

A:MaxCompute服务被暂停后,所有MaxCompute项目保留14天后将被释放,其中的所有数据,如表(Table)、资源(Resource)、函数(Function)和实例(Instance)会丢失并且不可恢复。
如果您在14天内充值补足欠费后,服务会自动开启,可以继续使用。
如果您欠费超过14天,将视为您主动放弃所有MaxCompute项目。在项目释放前一天将发送短信/邮件进行提醒。

Q:数据计算服务MaxCompute(按量付费) 已经把项目都删除了,为什么还在扣费0.01?

A:按照存储计费规则,存储小于等于512M数据最低收取1分钱。当天数据9点删除,次日会有前天0-9点的存储账单。

Q:MaxCompute的SQL计算每个月花费2000元。按照这样的计算量如果换成预付费,需要购买多少CU合适?

A:业务可能存在变动的情况,因此建议您自行预估费用。
您可以观察一下每个SQL任务logview中的running worker数量,就是CU数量。

Q:Maxcompute 如果采用按月付费之后,可以切换成按量付费吗?如果可以切换,费用如何计算?

A:请参考计费方式转换

Q:推荐引擎任务失败也会计费吗?

A:推荐引擎任务显示失败,不一定是MaxCompute任务失败。MaxCompute本身计算任务失败不收费。

Q:MaxCompute在没有什么任务变动的情况下费用暴涨,从1000涨到3000是由于什么原因? 

A:您可以查看账单详情,找出具体是什么SQL任务耗费较大的资源和具体的运行时间。

Q:上传到MaxCompute的jar包资源和表等占用的空间需要收费吗? 

A:存储到 MaxCompute 的数据,包括表(Table)和资源(Resource)等,会按照其数据容量的大小进行阶梯计费,计费周期为 天。

Q:如果按月购买MaxCompute还会额外收取费用吗?

A:MaxCompute预付费只收取了计算资源单元固定时间内的费用。在使用过程中如果产生了下载和存储,会根据您实际的使用情况进行收费。

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
2月前
|
SQL 分布式计算 DataWorks
DataWorks常见问题之maxcompute资源打开失败如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
存储 SQL 缓存
使用实践:Hologres对接MaxCompute常见问题排查
本文总结了Hologres对接MaxCompute时的常见问题与处理方法。
3049 3
使用实践:Hologres对接MaxCompute常见问题排查
|
2月前
|
数据采集 分布式计算 DataWorks
DataWorks常见问题之dataworks引用maxcompute资源失败如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
10月前
|
SQL 分布式计算 Hadoop
【大数据】Sqoop使用常见问题
【大数据】Sqoop使用常见问题
315 0
|
SQL 编解码 分布式计算
【MaxCompute 常见问题】 UDF
查看资源信息 假设资源名称为 pyudf_test.py,在 odpscmd 客户端执行 desc resource pyudf_test.py;,或在 datastudio 中新建 SQL 节点后输入 desc resource pyudf_test.py;执行。
【MaxCompute 常见问题】 UDF
|
数据采集 存储 消息中间件
谈谈大数据采集和常见问题
谈谈大数据采集和常见问题
386 0
|
SQL 数据采集 分布式计算
大数据常见问题:数据倾斜
大数据常见问题:数据倾斜
大数据常见问题:数据倾斜
|
分布式计算 DataWorks Java
MaxCompute Spark 使用及常见问题|学习笔记
快速学习 MaxCompute Spark 使用及常见问题
470 0
MaxCompute Spark 使用及常见问题|学习笔记
|
存储 分布式计算 DataWorks
【MaxCompute 常见问题】 MaxCompute Spark
如何将开源 Spark 代码迁移到 Spark on MaxCompute?分以下三种情形: 作业无需访问 MaxCompute 表和 OSS。您的 Jar 包可直接运行,具体步骤请参见搭建开发环境。注意,对于 Spark 或 Hadoop 的依赖必须设成 provided。
【MaxCompute 常见问题】 MaxCompute Spark
|
分布式计算 Java 开发工具
【MaxCompute 常见问题】Tunnel SDK
使用 Tunnel SDK 上传数据时,上传的数据可以自动分配到各个分区吗? Tunnel SDK 上传数据时,是无法自动分配到各个分区的。每一次上传只支持将数据上传到一张表或表的一个分区,有分区的表一定要指定上传的分区,多级分区一定要指定到末级分区。
【MaxCompute 常见问题】Tunnel SDK

热门文章

最新文章