MaxCompute产品使用合集之如何设置自动运行多次某个区间的任务

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。

问题一:请问大数据计算MaxCompute Resource资源支持创建在不同的目录下么?

请问大数据计算MaxCompute Resource资源支持创建在不同的目录下么?就是说MaxCompute的资源上传只能传到同一个固定目录下是么?不能创建子目录了



参考答案:

MaxCompute的资源都是直接上传的,没办法指定目录来存储

不能创建子目录,底层存储的目录结果也没有透出



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/574933



问题二:大数据计算MaxCompute我有一个字段是 event_body,如何做?

大数据计算MaxCompute我有一个字段是 event_body,结构如下

{

"startTime": "2023-11-02 19:05:44",

"startActionCode": "TripClaimAudit",

"startActionName": "审核差旅报销单",

"initData": {},

"actionList": [

{

"actionTime": "2023-11-02 19:05:44",

"actionCode": "TripClaimAudit",

"actionDesc": "审核差旅报销单"

},

{

"actionTime": "2023-11-02 19:06:29",

"actionCode": "TripClaimPayStrategy",

"actionDesc": "审核选择支付类型",

"actionData": 0

},

{

"actionTime": "2023-11-02 19:07:20",

"actionCode": "TripClaimPass",

"actionDesc": "通过差旅报销单"

}

],

"platform": 3,

"userAgent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.5735.289 Safari/537.36",

"operatorId": 135013155632,

"displayName": "陈旭成",

"endTime": "2023-11-02 19:07:20",

"endActionCode": "TripClaimPass",

"endActionName": "通过差旅报销单",

"extraData": {}

}

josn 里边有字段 有数组

其中一个是actionList 是一个数组 我可以通过

get_json_object(event_body,'$.actionList[*]') as action_list, 我这么能获取到内容

但是我想要获取数组种元素的个数 如何做? 用size 报错 用str_to_array 后再size 告诉我没有用str_to_array的函数



参考答案:

size函数需要入参是array或者map类型,当前传入的是string类型,会有报错产生。

我研究一下怎么计算出array的长度

可以这样试下,我用上边发的测试数据试了下https://help.aliyun.com/zh/maxcompute/user-guide/string-functions?spm=a2c4g.11186623.0.0.56645be50VBJzv#section-143-hgq-bc6



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/574932



问题三:大数据计算MaxCompute odps py sdk,我执行SQL的时候她是跑在哪个资源组的呢?

大数据计算MaxCompute odps py sdk,这个实例化又没有指定资源组,我执行SQL的时候她是跑在哪个资源组的呢?



参考答案:

计算资源的话,在控制台看下project绑定的是哪个。



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/574930



问题四:请问大数据计算MaxCompute有参考文档吗?

请问大数据计算MaxCompute有参考文档吗?我搜了一下没搜到欸



参考答案:

你取运维中心,选择周期任务 右键 补数据



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/574929



问题五:请教一个大数据计算MaxCompute问题:有没有办法设置一个区间的传参让它自动运行很多次呢?

请教一个大数据计算MaxCompute问题:如果我有一个任务是每天跑的,然后我想补之前几个月数据,需要把每天的pt传入跑一次,那我有没有办法设置一个区间的传参让它自动运行很多次呢?



参考答案:

ds>xx and ds < xxx 补充到今天的测试环境昨天的分区,然后测试环境的数据再覆盖到生产数据

运维中心补数据的时候,就可以选择业务日期,你选择一年的就行



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/574928

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
目录
打赏
0
1
1
0
1160
分享
相关文章
大数据-123 - Flink 并行度 相关概念 全局、作业、算子、Slot并行度 Flink并行度设置与测试
大数据-123 - Flink 并行度 相关概念 全局、作业、算子、Slot并行度 Flink并行度设置与测试
393 0
大数据增加分区减少单个任务的负担
大数据增加分区减少单个任务的负担
102 1
大数据-170 Elasticsearch 云服务器三节点集群搭建 测试运行
大数据-170 Elasticsearch 云服务器三节点集群搭建 测试运行
174 4
大数据-168 Elasticsearch 单机云服务器部署运行 详细流程
大数据-168 Elasticsearch 单机云服务器部署运行 详细流程
223 2
大数据-128 - Flink 并行度设置 细节详解 全局、作业、算子、Slot
大数据-128 - Flink 并行度设置 细节详解 全局、作业、算子、Slot
386 0
大数据-111 Flink 安装部署 YARN部署模式 FlinkYARN模式申请资源、提交任务
大数据-111 Flink 安装部署 YARN部署模式 FlinkYARN模式申请资源、提交任务
250 0
在数据浪潮中前行:记录一次我与ODPS的实践、思考与展望
本文详细介绍了在 AI 时代背景下,如何利用阿里云 ODPS 平台(尤其是 MaxCompute)进行分布式多模态数据处理的实践过程。内容涵盖技术架构解析、完整操作流程、实际部署步骤以及未来发展方向,同时结合 CSDN 博文深入探讨了多模态数据处理的技术挑战与创新路径,为企业提供高效、低成本的大规模数据处理方案。
46 2
ODPS在某公共数据项目上的实践
本项目基于公共数据定义及ODPS与DataWorks技术,构建一体化智能化数据平台,涵盖数据目录、归集、治理、共享与开放六大目标。通过十大子系统实现全流程管理,强化数据安全与流通,提升业务效率与决策能力,助力数字化改革。
24 4
ODPS:数据浪潮中的成长与突围
本文讲述了作者在大数据浪潮中,通过引入阿里云ODPS体系(包括MaxCompute、DataWorks、Hologres)解决数据处理瓶颈、实现业务突破与个人成长的故事。从被海量数据困扰到构建“离线+实时”数据架构,ODPS不仅提升了数据处理效率,更推动了技术能力与业务影响力的双重跃迁。
数据没洗干净,分析全白干:聊聊大数据里的“洗澡水”工程
数据没洗干净,分析全白干:聊聊大数据里的“洗澡水”工程
49 1

相关产品

  • 云原生大数据计算服务 MaxCompute
  • AI助理

    你好,我是AI助理

    可以解答问题、推荐解决方案等

    登录插画

    登录以查看您的控制台资源

    管理云资源
    状态一览
    快捷访问