maxcompute之配置报错如何解决

简介: MaxCompute配置是指在使用阿里云MaxCompute服务时对项目设置、计算资源、存储空间等进行的各项调整;本合集将提供MaxCompute配置的指南和建议,帮助用户根据数据处理需求优化其MaxCompute环境。

问题一:我这边有个程序想通过 Maxcompute 走公网的方式访问 OSS ,请帮忙配置公网白名单,我这边自己配置的时候一直报错


我这边有个程序想通过 Maxcompute 走公网的方式访问 OSS ,请帮忙配置公网白名单,我这边自己配置的时候一直报错


参考回答:

oss-cn-beijing.aliyuncs.com:80,端口我给你开80先,好了我跟你说,你试一下


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/516383?spm=a2c6h.14164896.0.0.310448532ZjO8p


问题二:我根据操作maxcompute spark 在idea调试,不能正常执行,这个是什么情况呢?


"你好,我根据操作maxcompute spark 在idea调试,不能正常执行,这个是什么情况呢https://help.aliyun.com/document_detail/102430.html?spm=a2c4g.479449.0.0.8f70f54eMdaT6z 根据这个文档操作的,SparkPi可以,JavaSparkSQL这个类不行,好像出现格式问题,这种hive和odps哪里需要配置一下嘛?



下载的时候是2.3,但是我的maxcompute 是2.4.5,我把它改成2.4.5了,我加了hive的校验策略之后变成这样了,是这里本地也要加一些参数嘛



我修改了之后报上面新的错误,这个是这里需要做一些配置吗CupidConf,我看mc spark在idea执行分区表指定分区值插入会报错,在odps是正常的,这是正常现象吗,不存在分区值



就是指定插入的分区值,显示指不存在,但是在odps执行是正确的,代码的话是官网文档下载的代码,https://help.aliyun.com/document_detail/149317.html?spm=a2c4g.148914.0.0.7c6d83adirwGut 这里下载的https://help.aliyun.com/document_de....7c6d83adirwGut,上传到odps可以 "


参考回答:

"



这个参数去掉试一下,这样试一下? 1.你自建一个file里边配置一下ak信息 odps.project.name= odps.access.id= odps.access.key= odps.end.point= 2. 代码里这样写 import org.apache.spark.sql.{SaveMode, SparkSession}

object SparkSQL_idea { def main(args: Array[String]): Unit = { // val spark = GetAllData.getSparkSession() val spark = SparkSession .builder() .appName(""SparkSQL"") .config(""spark.master"", ""local[2]"") .config(""spark.sql.catalogImplementation"", ""hive"") .config(""spark.sql.sources.default"", ""hive"") .config(""spark.sql.broadcastTimeout"", 20 * 60) .config(""spark.sql.crossJoin.enabled"", true) .config(""odps.exec.dynamic.partition.mode"", ""nonstrict"") .getOrCreate()


import spark._
import sqlContext.implicits._
val rdf = sql(""select * from bank_data limit 100"")
println(s""rdf count, ${rdf.count()}"")
rdf.printSchema()


}

}加一个本地的file文件写配置,把代码里的配置,写到一个文件里,这样




关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/519178?spm=a2c6h.14164896.0.0.49144853jHPS7Y


问题三:请问下MaxCompute外层quota管理这里的配置是怎么修改的?


请问下MaxCompute外层quota管理这里的配置是怎么修改的?


 


没找到修改按钮呢


参考回答:

在quota计划里面修改。https://help.aliyun.com/document_detail/452201.html?spm=a2c4g.27797.0.0.7546cd53xHHNAZ


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/512702?spm=a2c6h.14164896.0.0.49144853jHPS7Y


问题四:MaxCompute怎么把set的这个配置下沉到后面所有要执行的sql啊?


我用odps-sdk执行一批sql,在这之前set了一个配置,MaxCompute怎么把set的这个配置下沉到后面所有要执行的sql啊? 目前验证了两种方式: 一:单条执行,set配置不生效; 二:脚本化执行,set配置生效,但是报错“cannot read table xxxxx after modification, please use variable instead: read table data into a variable before writing or access variables which represent new data”。 理解为在同一脚本中,insert过的表a,不能被select。 有没有别的方式可以解决这个问题啊?


参考回答:

可以project级别提前设置一下参数,setproject 参数=value;select1;


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/512964?spm=a2c6h.14164896.0.0.49144853jHPS7Y


问题五:MaxCompute计算资源是odps系统决定的吗?可以自己配置吗?


MaxCompute计算资源是odps系统决定的吗?可以自己配置吗?


参考回答:

如果是预付费quota,可以配置mcqa的资源。



,参考文档https://help.aliyun.com/document_detail/452201.html?spm=a2c4g.180701.0.0.28ac7e3cDOwUw3#section-7ip-fnz-of6。如果是后付费quota,是底层分配的计算资源


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/509889?spm=a2c6h.14164896.0.0.49144853jHPS7Y

相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
相关文章
|
7月前
|
存储 搜索推荐 算法
Java 大视界 -- Java 大数据在智能金融理财产品风险评估与个性化配置中的应用(195)
本文深入探讨了Java大数据技术在智能金融理财产品风险评估与个性化配置中的关键应用。通过高效的数据采集、存储与分析,Java大数据技术助力金融机构实现精准风险评估与个性化推荐,提升投资收益并降低风险。
Java 大视界 -- Java 大数据在智能金融理财产品风险评估与个性化配置中的应用(195)
|
存储 分布式计算 druid
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
262 1
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
|
分布式计算 Java MaxCompute
ODPS MR节点跑graph连通分量计算代码报错java heap space如何解决
任务启动命令:jar -resources odps-graph-connect-family-2.0-SNAPSHOT.jar -classpath ./odps-graph-connect-family-2.0-SNAPSHOT.jar ConnectFamily 若是设置参数该如何设置
|
运维 监控 数据可视化
大数据-171 Elasticsearch ES-Head 与 Kibana 配置 使用 测试
大数据-171 Elasticsearch ES-Head 与 Kibana 配置 使用 测试
483 1
|
消息中间件 分布式计算 druid
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(二)
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(二)
168 2
|
存储 消息中间件 druid
大数据-151 Apache Druid 集群模式 配置启动【上篇】 超详细!
大数据-151 Apache Druid 集群模式 配置启动【上篇】 超详细!
277 1
|
SQL 消息中间件 分布式计算
大数据-141 - ClickHouse 集群 副本和分片 Zk 的配置 Replicated MergeTree原理详解(一)
大数据-141 - ClickHouse 集群 副本和分片 Zk 的配置 Replicated MergeTree原理详解(一)
464 0
|
SQL 大数据
大数据-141 - ClickHouse 集群 副本和分片 Zk 的配置 Replicated MergeTree原理详解(二)
大数据-141 - ClickHouse 集群 副本和分片 Zk 的配置 Replicated MergeTree原理详解(二)
465 0
|
消息中间件 NoSQL Kafka
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
1015 0