开发者社区 > 大数据与机器学习 > 大数据计算 MaxCompute > 正文

我根据操作maxcompute spark 在idea调试,不能正常执行,这个是什么情况呢?

"你好,我根据操作maxcompute spark 在idea调试,不能正常执行,这个是什么情况呢https://help.aliyun.com/document_detail/102430.html?spm=a2c4g.479449.0.0.8f70f54eMdaT6z 根据这个文档操作的,SparkPi可以,JavaSparkSQL这个类不行,好像出现格式问题,这种hive和odps哪里需要配置一下嘛?a7268ca02262198c9077d28ca76abf7c.png下载的时候是2.3,但是我的maxcompute 是2.4.5,我把它改成2.4.5了,我加了hive的校验策略之后变成这样了,是这里本地也要加一些参数嘛77210bbc169bf7616f833cae170c2ab7.png我修改了之后报上面新的错误,这个是这里需要做一些配置吗CupidConf,我看mc spark在idea执行分区表指定分区值插入会报错,在odps是正常的,这是正常现象吗,不存在分区值5a02d9c89a006d0f3d45e86e679be00f.png就是指定插入的分区值,显示指不存在,但是在odps执行是正确的,代码的话是官网文档下载的代码,https://help.aliyun.com/document_detail/149317.html?spm=a2c4g.148914.0.0.7c6d83adirwGut 这里下载的https://help.aliyun.com/document_de....7c6d83adirwGut,上传到odps可以 "

展开
收起
饭也太好吃了 2023-06-09 15:10:34 105 0
1 条回答
写回答
取消 提交回答
  • "5affb4dbccda6cfb4c13aded8f1e70fc.png这个参数去掉试一下,这样试一下? 1.你自建一个file里边配置一下ak信息 odps.project.name= odps.access.id= odps.access.key= odps.end.point= 2. 代码里这样写 import org.apache.spark.sql.{SaveMode, SparkSession}

    object SparkSQL_idea { def main(args: Array[String]): Unit = { // val spark = GetAllData.getSparkSession() val spark = SparkSession .builder() .appName(""SparkSQL"") .config(""spark.master"", ""local[2]"") .config(""spark.sql.catalogImplementation"", ""hive"") .config(""spark.sql.sources.default"", ""hive"") .config(""spark.sql.broadcastTimeout"", 20 * 60) .config(""spark.sql.crossJoin.enabled"", true) .config(""odps.exec.dynamic.partition.mode"", ""nonstrict"") .getOrCreate()

    import spark._
    import sqlContext.implicits._
    
    val rdf = sql(""select * from bank_data limit 100"")
    println(s""rdf count, ${rdf.count()}"")
    rdf.printSchema()
    

    }

    }加一个本地的file文件写配置,把代码里的配置,写到一个文件里,这样341cfb92b3e3d4802c130c0a92e11082.png,此回答整理自钉群“MaxCompute开发者社区2群(答疑@机器人)”"

    2023-06-09 15:48:24
    赞同 展开评论 打赏

MaxCompute(原ODPS)是一项面向分析的大数据计算服务,它以Serverless架构提供快速、全托管的在线数据仓库服务,消除传统数据平台在资源扩展性和弹性方面的限制,最小化用户运维投入,使您经济并高效的分析处理海量数据。

相关产品

  • 云原生大数据计算服务 MaxCompute
  • 相关电子书

    更多
    Hybrid Cloud and Apache Spark 立即下载
    Scalable Deep Learning on Spark 立即下载
    Comparison of Spark SQL with Hive 立即下载