maxcompute之配置报错如何解决

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: MaxCompute配置是指在使用阿里云MaxCompute服务时对项目设置、计算资源、存储空间等进行的各项调整;本合集将提供MaxCompute配置的指南和建议,帮助用户根据数据处理需求优化其MaxCompute环境。

问题一:我这边有个程序想通过 Maxcompute 走公网的方式访问 OSS ,请帮忙配置公网白名单,我这边自己配置的时候一直报错


我这边有个程序想通过 Maxcompute 走公网的方式访问 OSS ,请帮忙配置公网白名单,我这边自己配置的时候一直报错


参考回答:

oss-cn-beijing.aliyuncs.com:80,端口我给你开80先,好了我跟你说,你试一下


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/516383?spm=a2c6h.14164896.0.0.310448532ZjO8p


问题二:我根据操作maxcompute spark 在idea调试,不能正常执行,这个是什么情况呢?


"你好,我根据操作maxcompute spark 在idea调试,不能正常执行,这个是什么情况呢https://help.aliyun.com/document_detail/102430.html?spm=a2c4g.479449.0.0.8f70f54eMdaT6z 根据这个文档操作的,SparkPi可以,JavaSparkSQL这个类不行,好像出现格式问题,这种hive和odps哪里需要配置一下嘛?



下载的时候是2.3,但是我的maxcompute 是2.4.5,我把它改成2.4.5了,我加了hive的校验策略之后变成这样了,是这里本地也要加一些参数嘛



我修改了之后报上面新的错误,这个是这里需要做一些配置吗CupidConf,我看mc spark在idea执行分区表指定分区值插入会报错,在odps是正常的,这是正常现象吗,不存在分区值



就是指定插入的分区值,显示指不存在,但是在odps执行是正确的,代码的话是官网文档下载的代码,https://help.aliyun.com/document_detail/149317.html?spm=a2c4g.148914.0.0.7c6d83adirwGut 这里下载的https://help.aliyun.com/document_de....7c6d83adirwGut,上传到odps可以 "


参考回答:

"



这个参数去掉试一下,这样试一下? 1.你自建一个file里边配置一下ak信息 odps.project.name= odps.access.id= odps.access.key= odps.end.point= 2. 代码里这样写 import org.apache.spark.sql.{SaveMode, SparkSession}

object SparkSQL_idea { def main(args: Array[String]): Unit = { // val spark = GetAllData.getSparkSession() val spark = SparkSession .builder() .appName(""SparkSQL"") .config(""spark.master"", ""local[2]"") .config(""spark.sql.catalogImplementation"", ""hive"") .config(""spark.sql.sources.default"", ""hive"") .config(""spark.sql.broadcastTimeout"", 20 * 60) .config(""spark.sql.crossJoin.enabled"", true) .config(""odps.exec.dynamic.partition.mode"", ""nonstrict"") .getOrCreate()


import spark._
import sqlContext.implicits._
val rdf = sql(""select * from bank_data limit 100"")
println(s""rdf count, ${rdf.count()}"")
rdf.printSchema()


}

}加一个本地的file文件写配置,把代码里的配置,写到一个文件里,这样




关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/519178?spm=a2c6h.14164896.0.0.49144853jHPS7Y


问题三:请问下MaxCompute外层quota管理这里的配置是怎么修改的?


请问下MaxCompute外层quota管理这里的配置是怎么修改的?


 


没找到修改按钮呢


参考回答:

在quota计划里面修改。https://help.aliyun.com/document_detail/452201.html?spm=a2c4g.27797.0.0.7546cd53xHHNAZ


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/512702?spm=a2c6h.14164896.0.0.49144853jHPS7Y


问题四:MaxCompute怎么把set的这个配置下沉到后面所有要执行的sql啊?


我用odps-sdk执行一批sql,在这之前set了一个配置,MaxCompute怎么把set的这个配置下沉到后面所有要执行的sql啊? 目前验证了两种方式: 一:单条执行,set配置不生效; 二:脚本化执行,set配置生效,但是报错“cannot read table xxxxx after modification, please use variable instead: read table data into a variable before writing or access variables which represent new data”。 理解为在同一脚本中,insert过的表a,不能被select。 有没有别的方式可以解决这个问题啊?


参考回答:

可以project级别提前设置一下参数,setproject 参数=value;select1;


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/512964?spm=a2c6h.14164896.0.0.49144853jHPS7Y


问题五:MaxCompute计算资源是odps系统决定的吗?可以自己配置吗?


MaxCompute计算资源是odps系统决定的吗?可以自己配置吗?


参考回答:

如果是预付费quota,可以配置mcqa的资源。



,参考文档https://help.aliyun.com/document_detail/452201.html?spm=a2c4g.180701.0.0.28ac7e3cDOwUw3#section-7ip-fnz-of6。如果是后付费quota,是底层分配的计算资源


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/509889?spm=a2c6h.14164896.0.0.49144853jHPS7Y

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
2月前
|
分布式计算 资源调度 大数据
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(一)
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(一)
71 0
|
2月前
|
分布式计算 资源调度 大数据
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(二)
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(二)
77 0
|
1月前
|
分布式计算 Java MaxCompute
ODPS MR节点跑graph连通分量计算代码报错java heap space如何解决
任务启动命令:jar -resources odps-graph-connect-family-2.0-SNAPSHOT.jar -classpath ./odps-graph-connect-family-2.0-SNAPSHOT.jar ConnectFamily 若是设置参数该如何设置
|
2月前
|
存储 分布式计算 druid
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
44 1
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
|
2月前
|
运维 监控 数据可视化
大数据-171 Elasticsearch ES-Head 与 Kibana 配置 使用 测试
大数据-171 Elasticsearch ES-Head 与 Kibana 配置 使用 测试
82 1
|
2月前
|
消息中间件 分布式计算 druid
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(二)
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(二)
44 2
|
2月前
|
存储 消息中间件 druid
大数据-151 Apache Druid 集群模式 配置启动【上篇】 超详细!
大数据-151 Apache Druid 集群模式 配置启动【上篇】 超详细!
91 1
|
2月前
|
SQL 消息中间件 分布式计算
大数据-141 - ClickHouse 集群 副本和分片 Zk 的配置 Replicated MergeTree原理详解(一)
大数据-141 - ClickHouse 集群 副本和分片 Zk 的配置 Replicated MergeTree原理详解(一)
73 0
|
2月前
|
SQL 大数据
大数据-141 - ClickHouse 集群 副本和分片 Zk 的配置 Replicated MergeTree原理详解(二)
大数据-141 - ClickHouse 集群 副本和分片 Zk 的配置 Replicated MergeTree原理详解(二)
84 0
|
2月前
|
消息中间件 NoSQL Kafka
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
192 0
下一篇
DataWorks