开发者社区 > 大数据与机器学习 > 大数据计算 MaxCompute > 正文

maxcompute想看spark ui界面,需要设置什么参数

maxcompute想看spark ui界面,需要设置什么参数

展开
收起
JWRRR 2023-03-28 20:23:48 515 0
3 条回答
写回答
取消 提交回答
  • 打印的日志里,有log view链接,链接的Summary里有SparkUI,一般刚刚执行完的任务需要渲染大概10-20分钟再打开整理自钉群“MaxCompute开发者社区2群”

    2023-03-29 13:16:36
    赞同 展开评论 打赏
  • 发表文章、提出问题、分享经验、结交志同道合的朋友

    MaxCompute Spark是阿里云通过Spark on MaxCompute的解决方案,让原生Spark能够在MaxCompute中运行。

    在IDEA中运行Local模式时,需要手动在代码中指定相关配置。配置示例如下: image.png

    • appName:Spark 应用程序的名称,将在 Spark UI 中显示。

    • spark.master:要连接到的 Spark 主节点的 URL。在这种情况下,我们使用 "local[*]" 以使用所有可用的核心在本地运行 Spark。

    • spark.ui.showConsoleProgress:是否在控制台中显示进度更新。将其设置为 "true" 以在控制台中查看进度更新。

    • spark.ui.proxyBase:Spark UI 反向代理的基本 URL。

    • spark.ui.port:Spark UI 的端口号。在这个例子中,我们将端口号设置为 4040,这是 Spark 用于 UI 的默认端口号。

    2023-03-28 21:00:38
    赞同 展开评论 打赏
  • 全栈JAVA领域创作者

    要查看MaxCompute中运行的Spark作业的UI界面,需要在提交Spark作业时设置相应的参数。

    在阿里云官方文档[3]中提到,可以通过在提交Spark作业时加入--spark.eventLog.enabled=true和--spark.eventLog.dir=<指定目录>参数,来开启Spark的事件日志功能,将事件日志保存在指定目录下。同时,在Spark作业提交后,可以通过MaxCompute控制台或CLI命令来查看作业的事件日志。

    另外,阿里云官方博客[9]中也提到,在使用MaxCompute Spark客户端进行开发时,可以通过在代码中添加以下配置来启用Spark UI界面:

    scala Copy code val sparkConf = new SparkConf() .setAppName("test") .set("spark.ui.proxyBase", "") .set("spark.driver.extraJavaOptions", "-Dhttp.proxyHost=web-proxy -Dhttp.proxyPort=8080 -Dhttps.proxyHost=web-proxy -Dhttps.proxyPort=8080") val sc = new SparkContext(sparkConf) 其中,spark.ui.proxyBase设置为空字符串,spark.driver.extraJavaOptions则是用于设置代理的参数。

    总之,要查看MaxCompute中运行的Spark作业的UI界面,需要在提交Spark作业时设置相应的参数,或者在代码中添加配置。

    2023-03-28 20:37:54
    赞同 展开评论 打赏

MaxCompute(原ODPS)是一项面向分析的大数据计算服务,它以Serverless架构提供快速、全托管的在线数据仓库服务,消除传统数据平台在资源扩展性和弹性方面的限制,最小化用户运维投入,使您经济并高效的分析处理海量数据。

相关产品

  • 云原生大数据计算服务 MaxCompute
  • 相关电子书

    更多
    Hybrid Cloud and Apache Spark 立即下载
    Scalable Deep Learning on Spark 立即下载
    Comparison of Spark SQL with Hive 立即下载