spark 写入oss-hdfs任务,spark任务结束很久yarn任务也获取到成功,但是spark客户端一直在等待,如何解决?
针对Spark写入OSS-HDFS任务出现的问题,即Spark任务结束且Yarn任务成功,但Spark客户端仍在等待的情况,可以尝试从以下几个方面排查:
1.检查Spark作业提交模式: 根据文档信息,E-MapReduce对Yarn-Client模式下的Spark Streaming作业状态可能存在监控问题,这可能导致Spark客户端显示作业仍在运行。因此,请确保Spark作业是以Yarn-Cluster
模式提交的,而非Yarn-Client
模式。
2.确认Spark与OSS-HDFS集成配置: 确保正确配置了Spark连接OSS-HDFS所需的参数,包括但不限于: markdown - 在`core-site.xml`中配置OSS-HDFS的相关属性:
fs.AbstractFileSystem.oss.impl com.aliyun.jindodata.oss.JindoOSS fs.oss.impl com.aliyun.jindodata.oss.JindoOssFileSystem fs.oss.accessKeyId [您的AccessKeyId] fs.oss.accessKeySecret [您的AccessKeySecret] - 在提交Spark任务时通过`spark-submit`命令行指定OSS-HDFS相关配置:
spark-submit \ --conf spark.hadoop.fs.AbstractFileSystem.oss.impl=com.aliyun.jindodata.oss.OSS \ --conf spark.hadoop.fs.oss.impl=com.aliyun.jindodata.oss.JindoOssFileSystem \ --conf spark.hadoop.fs.oss.accessKeyId=[您的AccessKeyId] \ --conf spark.hadoop.fs.oss.accessKeySecret=[您的AccessKeySecret] ```
3.检查Spark客户端与集群通信情况: 确认Spark客户端与集群之间的网络通信正常,没有阻塞或延迟导致客户端未能及时接收到作业完成的通知。
4.查看Spark事件日志目录配置: 确保Spark事件日志目录配置正确,并且客户端能够访问到这个目录,以便准确获取作业状态。
5.确认Spark作业资源释放: 检查Spark作业结束后,其占用的资源是否已被YARN完全释放,有时资源未被正确回收也可能导致客户端显示异常。
如果以上步骤均无误,建议进一步查看Spark客户端的具体错误信息或日志,以及YARN ResourceManager的日志,以获取更详细的故障线索。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。