创建文件系统并添加挂载点后,您可以通过挂载点挂载文件存储HDFS实例。
前提条件 对于ECS实例来说,能否通过一个挂载点访问文件系统取决于以下的条件: 若挂载点网络类型是专有网络,则只有同一VPC内的ECS实例能够挂载,并且挂载点所绑定的权限组中有一条规则的授权地址能够与ECS实例的VPC IP地址匹配。 HDFS协议挂载前,您需要确保ECS中已经安装了Java 1.8。 操作步骤 在一个节点上将以下内容添加到core-site.xml文件,并同步到所有依赖hadoop-common的节点上: fs.defaultFS dfs://DfsMountpointDomainName:10290 fs.dfs.impl com.alibaba.dfs.DistributedFileSystem fs.AbstractFileSystem.dfs.impl com.alibaba.dfs.DFS
说明 如果fs.defaultFS属性的 值中包含hdfs://,请将其相应替换为dfs://。 请将MountpointDomainName替换为具体文件存储HDFS实例的挂载地址,如xxx.cn-hangzhou.dfs.aliyuncs.com。 core-site.xml的内容需要同步到所有依赖hadoop-common的节点上。 您可以下载文件存储HDFS文件系统SDK的JAR文件aliyun-sdk-dfs-x.y.z.jar,将其部署在Hadoop生态系统组件的CLASSPATH 上,推荐将其部署到hadoop-common-X.YZ.jar所在的目录内。 说明 Hadoop版本不低于2.7.2。 例如,对于Spark 2.3.0,解压后的目录结构如下图: 需要把aliyun-sdk-dfs-x.y.z.jar拷贝到jars目录。
在core-site.xml中配置参数(如io.file.buffer.size和dfs.connection.count等),并同步到所有依赖hadoop-common的节点上。 io.file.buffer.size 4194304 To achieve high throughput, no less than 1MB, no more than 8MB dfs.connection.count 1 If multi threads in the same process will read/write to DFS, set to count of threads 使用hadoop fs命令行工具,运行hadoop fs -ls /命令进行验证,如下图所示: 如未报错,则部署成功。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。