我现在就读于网络工程专业,目前是大四需要进行毕业设计所以会有使用云服务器的需求,我在做毕业实习的时候,老师提到过可以参加阿里云的飞天加速计划
要想使用学生免费的服务器需要进到阿里云官网,搜索飞天加速计划
进入之后,要想享受学生优惠,要根据上面的流程走,没有注册要先注册阿里云的账号,支付宝可以直接登录阿里云哟,然后就要进行实名认证和学生认证,认证完成之后还需要进行培训,这个培训会教会你很多使用服务器的小技巧,之后需要进行考试,主要考服务器和linux的问题,十分钟之类只能考一次,所以要提前做好准备,好好看看相关内容然后进行考试,考试通过之后就能免费试用了,之后想要继续免费使用的话就必须要发表一篇文章并且通过审核之后才能继续领取
在领取了之后,要想服务器能够挂载网站,必须对服务器进行配置,我的建议是使用MobaXterm这个软件连接服务器的公网ip,然后再使用Linux命令对环境进行配置
接下来我来说一下自己对环境的搭建
1.mysql的搭建
第一步:去官网下载mysql的在线安装包
第二步:解压mysql安装包
rpm解压的时候,不需要去跟归档目录
rpm -ivh mysql80-community-release-el7-4.noarch.rpm
默认目录是解压在/etc/yum.repos.d
第三步:切换到解压目录
cd /etc/yum.repos.d
第四步:修改mysql的在线安装包
vi mysql-community.repo
注意:把5.7的0改成1,把8.0的1改成0
第五步:在线安装mysql服务
yum -y install mysql-community-server
第六步:启动mysql的服务
service mysqld start
第七步:在登录的时候,需要先查看一下系统给我们提供的临时密码
grep 'temporary password' /var/log/mysqld.log
mysql -uroot -p
第八步:修改密码
注意:先设置密码的长度,再把mysql的安全等级降低
set global validate_password_length=6;
set global validate_password_policy=0;
ALTER USER 'root'@'localhost' IDENTIFIED BY '123456';
2.mysql的授权处理
注意:元数据(框架组成的基本数据)与真实数据(我们存储的数据)的区别
第一步:使用mysql的元数据库
use mysql;
第二部:更新域属性:
update user set host='%' where user ='root';
第三部:执行以上语句之后再执行更新语句:
FLUSH PRIVILEGES;
第四步:再执行授权语句:
GRANT ALL PRIVILEGES ON . TO 'root'@'%'WITH GRANT OPTION;
2.hadoop框架的搭建
hadoop的底层是基于物理磁盘的 (spark基于内存计算的)
第一步:解压hadoop的tar包
tar -zxvf hadoop-2.7.3.tar.gz -C /usr/local/
第二步:切换到配置文件的目录
cd /usr/local/hadoop-2.7.3/etc/hadoop
第三步:修改hadoop-env.sh (修改hadoop的java依赖)
vi hadoop-env.sh
修改内容如下:
export JAVA_HOME=/usr/local/jdk1.8.0_211
第四步:修改core-site.xml (外界访问的配置)核心配置
vi core-site.xml
修改内容如下:
fs.defaultFS
hdfs://hadoop01:9000
hadoop.tmp.dir
/usr/local/hadoop-2.7.3/tmp
第五步:修改hdfs-site.xml (修改保存元数据与真实数据的存储路径)
vi hdfs-site.xml
修改内容如下:
dfs.namenode.name.dir
/usr/local/hadoop-2.7.3/data/name
dfs.datanode.data.dir
/usr/local/hadoop-2.7.3/data/data
dfs.replication
3
dfs.secondary.http.address
hadoop01:50090
第六步:修改mapred-site.xml
注意,该文件是一个临时文件,我们需要把临时文件变成非临时文件
mv mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
修改内容如下:
mapreduce.framework.name
yarn
第七步:修改yarn-site.xml 资源调度着
vi yarn-site.xml
修改内容如下:
yarn.resourcemanager.hostname
hadoop01
yarn.nodemanager.aux-services
mapreduce_shuffle
第八步:修改slaves 指定从节点是谁
vi slaves
修改内容如下:(把localhost删掉)
hadoop02
hadoop03
注意:启动之前先配置环境变量
vi /etc/profile
export JAVA_HOME=/usr/local/jdk1.8.0_211
export HADOOP_HOME=/usr/local/hadoop-2.7.3
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
记得source
source /etc/profile
第九步:初始化与分发(初始化与启动的命令都是在主节点操作hadoop01)
注意:因为集群是第一次搭建出来的,所有要进行初始化
hadoop namenode -format (该命令只执行一次:(是成功一次))
注意:给其他俩台节点分发hadoop
scp -r /usr/local/hadoop-2.7.3 hadoop02:/usr/local/
scp -r /usr/local/hadoop-2.7.3 hadoop03:/usr/local/
第十步:启动集群
初始化成功跟分发完毕后,再去启动集群:
start-all.sh
jps:查看java进程的命令
(注意:如果启动的时候出错了,记得先停止集群stop-all.sh,再去修改错误的地方,修改的时候
,记得是修改三台服务器,而不是光修改一台,修改完成后,再次启动集群即可)
web页面查看:ip:50070
经历过这次的学习和对服务器的使用,我收获很多,搭建网站的时候遇到了很多的困难,但是最终还是在各种查询信息的条件下做了出来,我曾经发现只有一个端口可以访问,最后发现是我没有打开防火墙,希望大家能够借鉴我的经验,还有要到安全组那里去开放端口号,总而言之,这次的活动我学到了很多,感谢阿里云的这次活动,能让我有机会体验使用这么优秀的服务器。