开发者社区 > 大数据与机器学习 > 大数据开发治理DataWorks > 正文

dataworks上能跑spark任务节点吗?

dataworks上能跑spark任务节点吗?

展开
收起
真的很搞笑 2023-11-20 07:56:16 182 0
6 条回答
写回答
取消 提交回答
  • 确实,DataWorks提供了ODPS Spark节点和EMR Spark节点,可以用于运行Spark任务。在ODPS Spark节点中,您可以编辑并运行MaxCompute Spark任务,支持的语言包括Java、Scala和Python。具体步骤包括在本地Python环境中编写和打包Spark代码,然后上传至DataWorks,最后在DataWorks上创建ODPS Spark节点并运行该节点。

    对于EMR Spark节点,您可以在DataWorks上进行Spark任务的开发和周期性调度。当运行PySpark作业时,需要创建EMR Spark节点,并使用spark-submit命令提交作业。

    此外,DataWorks的数据开发模块还提供了多种类型的节点,这些节点均支持周期性任务调度,您可以根据业务需求选择合适的节点进行相关开发操作。

    2023-11-21 17:39:52
    赞同 展开评论 打赏
  • 支持的 绑定对应的引擎后支持运行,此回答整理自钉群“DataWorks交流群(答疑@机器人)”

    2023-11-20 21:55:32
    赞同 展开评论 打赏
  • DataWorks 不支持直接运行 Spark 任务节点。DataWorks 是一款大数据开发平台,用于进行数据开发、ETL、机器学习、AI等功能,它不支持直接运行 Spark 任务。
    如果您想运行 Spark 任务,可以使用 EMR(Elastic MapReduce)或者阿里云 Spark 服务,这些产品可以满足您对 Spark 任务的需求。\

    2023-11-20 18:07:53
    赞同 展开评论 打赏
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    是的,DataWorks 可以运行 Spark 任务节点。在 DataWorks 中,您可以创建 Spark SQL 和 PySpark 等类型的节点,用于编写和运行 Spark 作业。
    要创建 Spark 任务节点,请在 DataWorks 中新建一个工作空间,然后选择“新建”->“节点”,选择合适的类型(如 Spark SQL 或 PySpark),然后填写相应的参数,即可创建一个新的 Spark 任务节点。
    请注意,要运行 Spark 任务,您需要确保已经正确安装了 Spark 相关的软件包,并且在 DataWorks 中配置了正确的环境变量,否则可能会影响任务的正常运行。

    2023-11-20 13:03:54
    赞同 展开评论 打赏
  • DataWorks可以在其平台上运行Spark任务节点。DataWorks提供了对Spark的支持,包括Spark2.x和Spark3.x版本。在DataWorks中,可以设置任务节点的优先级,还可以在实时任务节点(如Spark Streaming)中支持周期调度和依赖调度。

    2023-11-20 10:39:59
    赞同 展开评论 打赏
  • 开发ODPS Spark任务https://help.aliyun.com/zh/dataworks/user-guide/create-an-odps-spark-node?spm=a2c4g.750001.0.i4

    MaxCompute Spark作业可通过Local模式、Cluster模式执行,此外,您也可在DataWorks中运行MaxCompute Spark离线作业(Cluster模式),以便与其它类型执行节点集成和调度。本文为您介绍如何通过DataWorks实现MaxCompute Spark作业的配置与调度。

    前提条件
    已创建ODPS Spark节点,详情请参见创建并管理MaxCompute节点。

    背景信息
    MaxCompute Spark是MaxCompute提供的兼容开源Spark的计算服务。它在统一的计算资源和数据集权限体系基础上,提供Spark计算框架,支持您以熟悉的开发使用方式提交运行Spark作业,满足更丰富的数据处理分析需求。在DataWorks中,您可通过ODPS Spark节点实现MaxCompute Spark任务的调度运行,以及与其他作业的集成操作。

    MaxCompute Spark支持使用Java、Scala和Python语言进行开发,并通过Local、Cluster模式运行任务,在DataWorks中运行MaxCompute Spark离线作业时采用Cluster模式执行。更多关于MaxCompute Spark运行模式的介绍,详情请参见运行模式。

    准备工作
    ODPS Spark节点支持使用Java/Scala和Python语言运行MaxCompute Spark离线作业,不同语言开发步骤及配置界面存在差异,您可根据业务需要选择使用。

    配置项说明
    DataWorks运行MaxCompute Spark离线作业采用Cluster模式,在Cluster模式中,您需指定自定义程序入口main。main运行结束(即状态为Success或Fail)时,对应的Spark作业便会结束。此外,spark-defaults.conf中的配置需逐条加到ODPS Spark节点配置项中。例如,Executor的数量、内存大小和spark.hadoop.odps.runtime.end.point的配置。https://help.aliyun.com/zh/dataworks/user-guide/create-an-odps-spark-node?spm=a2c4g.750001.0.i4

    2023-11-20 08:29:00
    赞同 展开评论 打赏
滑动查看更多

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。

相关产品

  • 大数据开发治理平台 DataWorks
  • 相关电子书

    更多
    Hybrid Cloud and Apache Spark 立即下载
    Scalable Deep Learning on Spark 立即下载
    Comparison of Spark SQL with Hive 立即下载