我是来自贵州一所普通的大三学生,我学习的是数据科学与大数据专业,
因为我非常需要服务器来搭建大数据的开发平台,然后我是在同学的推荐
下知道了阿里云服务器这个东西。但是我看到普通版的价格都尤其的贵,我在想着阿里云有没有一款适合学生使用的服务器,恰好某一天我在逛网站看到有一篇文章介绍了“飞天加速计划·高校学生在家实践”活动。
我在这篇文章的吸引方式和途径了解到“飞天加速计划·高校学生在家实践”活动,这个活动是专门
针对学生推出的一款活动,凡是只要年龄在25岁以下,你不用认证,咱们亲爱的阿里云平台会给你这个非常好的政策,他不但可以节约一大笔钱,让我们学生使用得起云服务器,还可以通过参加活动达到免费领取云服务器的好事。我在使用阿里云ecs过程中,一开始不知道在哪里选择自己需要的系统,或者咱们查看自己的ip
密码这些一系列问题大都是通过百度可以解决这些问题,有一点需要注意的是我们用工具连接linux系统的时候
不是用私网连接的,而是公网。
千万需要注意。我希望可以申请到我们的阿里云服务器,来练习平时的学习
希望多看多练习,达到自己的要求。我们这里的平台还有手把手教我们搭建一些创建的平台,我们也可以多注意上去逛逛。在我选择Linux的Ubuntu操作系统来搭建基本的大数据运行平台,这里我举了搭建Hadoop平台的例子
大家有兴趣可以和我一起看看过程
版本配置是Hadoop3.1.3安装教程-单机/伪分布式配置_Hadoop3.1.3/Ubuntu18.04
1:创建hadoop用户
命令:sudo useradd -m hadoop -s /bin/bash
这条命令创建了可以登陆的 hadoop 用户,并使用 /bin/bash 作为 shell。
2:接着使用如下命令设置密码,可简单设置为 hadoop,按提示输入两次密码:
命令:sudo passwd hadoop
3:为 hadoop 用户增加管理员权限,方便部署,避免一些对新手来说比较棘手的权限问题
命令:sudo adduser hadoop sudo
4:安装Java环境
5:设置环境变量
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
6:使用命令java -version
即可查看到Java的版本信息,证明安装成功
7:我们选择将 Hadoop 安装至 /usr/local/ 中:
sudo tar -zxf ~/下载/hadoop-3.1.3.tar.gz -C /usr/local # 解压到/usr/local中
cd /usr/local/
sudo mv ./hadoop-3.1.3/ ./hadoop # 将文件夹名改为hadoop
sudo chown -R hadoop ./hadoop # 修改文件权限
8:伪分布式的配置:修改core-site.xml 和 hdfs-site.xml 文件
9:配置完成后,执行 NameNode 的格式化:
到此我们的Hadoop搭建成功