我提交spark作业的时候,如果我不想每次都打spark镜像,而是我把jar包放到oss上,然后能在作业pod启动时,把jar包传到作业所在的pod里面的去,这个应该怎么做呢?
你可以先试一下配置 spark.jars=oss://xxxx/ ,这种方式可以加载oss的jar,但是这个是运行时加载,所以要看你使用jar包的场景,不一定完全能满足。如果不行,还是建议构建镜像,如果要自定义镜像,我可以给你个操作文档。(此答案整理自EMR on ACK 用户技术交流群)
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
阿里云EMR是云原生开源大数据平台,为客户提供简单易集成的Hadoop、Hive、Spark、Flink、Presto、ClickHouse、StarRocks、Delta、Hudi等开源大数据计算和存储引擎,计算资源可以根据业务的需要调整。EMR可以部署在阿里云公有云的ECS和ACK平台。