我现在有一个端点服务器可以正常工作在spark中的s3a文件系统,我想支持s3n://和s3://
以下是您需要在配置中提供的类hadoop-aws.jar。
org.apache.hadoop.fs.s3native.NativeS3FileSystem, org.apache.hadoop.fs.s3.S3FileSystem
声明方式:
在core-site.xml中
fs.s3.impl
org.apache.hadoop.fs.s3.S3FileSystem
fs.s3n.impl
org.apache.hadoop.fs.s3native.NativeS3FileSystem
或者你可以像下面那样以编程方式设置它们。
程序方式:
示例:
spark.sparkContext.hadoopConfiguration.set("fs.s3n.impl", "org.apache.hadoop.fs.s3native.NativeS3FileSystem")
spark.sparkContext.hadoopConfiguration.set("fs.s3n.awsAccessKeyId", "AccessKey")
spark.sparkContext.hadoopConfiguration.set("fs.s3n.awsSecretAccessKey", "SecretKey")
类似于s3://也。
hadoop-aws.jar有这些类,所以你需要使用...为你的spark-submit作业提供jar。
--jars /usr/hadoop/hadoop-aws.jar
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。