开发者社区 > 大数据与机器学习 > 大数据开发治理DataWorks > 正文

odps spark参数如何设置?

odps spark参数如何设置?

展开
收起
十一0204 2023-04-06 14:47:20 411 0
4 条回答
写回答
取消 提交回答
  • odps spark参数的设置可以通过在代码中使用SparkConf对象来实现,例如:

    from odps import options
    from odps.ml import SparkContext
    
    options.ml.dry_run = True
    sc = SparkContext.getOrCreate(conf=SparkConf().setAppName('my_app'))
    

    在setAppName()方法中可以设置应用程序的名称,其他参数可以通过SparkConf对象的方法进行设置。具体参数的设置可以参考Spark官方文档。

    2023-04-07 08:32:59
    赞同 展开评论 打赏
  • 月移花影,暗香浮动

    在DataWorks中配置ODPS Spark参数的步骤如下:

    1. 打开ODPS的任务配置界面;
    2. 点击任务配置界面中的“编辑”按钮,进入任务编辑页面;
    3. 在任务编辑页面中,找到“调度配置”选项卡,点击进入;
    4. 在“调度配置”选项卡中找到“参数配置”选项卡,点击进入;
    5. 在“参数配置”选项卡中找到“ODPS Spark 配置”选项卡,点击进入;
    6. 在“ODPS Spark 配置”选项卡中,可以设置一些ODPS Spark运行时的参数,比如spark.executor.memory、spark.executor.cores等。

    设置完参数后,点击“保存”按钮即可。在下次任务运行时,DataWorks会自动根据配置中的参数来运行任务。

    2023-04-06 16:31:35
    赞同 展开评论 打赏
  • 意中人就是我呀!

    "ODPS Spark节点, 参考文档:https://help.aliyun.com/document_detail/113830.html 此回答整理自钉群“DataWorks交流群(答疑@机器人)”"

    2023-04-06 15:59:59
    赞同 展开评论 打赏
  • 坚持这件事孤独又漫长。

    设置ODPS Spark参数有以下两种方式:

    • 在ODPS SQL任务中设置:打开ODPS SQL任务,在左侧工具栏选择“高级参数设置”,在“参数键”一栏输入odps.sql.submit.odps.spark.driver.memory,在“参数值”一栏输入需要设置的值,如“4g”,保存即可。

    • 在DataWorks工作流中设置:在DataWorks工作流中打开一个节点,选择“高级参数设置”,在“参数键”一栏输入odps.sql.submit.odps.spark.driver.memory,在“参数值”一栏输入需要设置的值,如“4g”,保存即可。

    2023-04-06 14:56:42
    赞同 展开评论 打赏

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。

热门讨论

热门文章

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载