开发者社区 > 大数据与机器学习 > 开源大数据平台 E-MapReduce > 正文

RayOnSpark 如何使用?

RayOnSpark 如何使用? 求大佬解答

展开
收起
爱吃鱼的程序员 2020-12-28 14:21:14 891 0
1 条回答
写回答
取消 提交回答
  • https://developer.aliyun.com/profile/5yerqm5bn5yqg?spm=a2c6h.12873639.0.0.6eae304abcjaIB

    RayOnSpark的使用非常简单,只需要三步。首先要importAnalyticsZoo中的包,通过init_spark_on_yarn方法创建SparkContextobject,会自动将指定conda环境的Python依赖打包好分发给所有的SparkExecuter。第二步,创建RayContextobject,这是连接Ray和Spark的桥梁,在创建的时候可以定义Ray的参数,如给多大的object_store_memory等。下图右侧红色框是需要加的RayOnSpark代码,黑色框是用Ray直接写的代码。在Ray项目执行完成后,调用ray_ctx.stop()就可以关掉Ray的集群。

    2020-12-28 14:21:32
    赞同 展开评论 打赏

阿里云EMR是云原生开源大数据平台,为客户提供简单易集成的Hadoop、Hive、Spark、Flink、Presto、ClickHouse、StarRocks、Delta、Hudi等开源大数据计算和存储引擎,计算资源可以根据业务的需要调整。EMR可以部署在阿里云公有云的ECS和ACK平台。

相关电子书

更多
# Apache Spark系列技术直播# 第五讲【 Spark RDD编程入门 】 立即下载
Spark介绍及Spark多数据源分析 立即下载
《Apache Flink-重新定义计算》PDF下载 立即下载