首先,简单介绍我的docker的入门过程,我是在大二的时候开始研究hadoop这个大数据领域的框架,然后开始在自己win8.1上面部署了VMware wokerstation,一款比docker耗内存和启动时间缓慢的虚拟机软件,接着就是按照官网文档开始shell执行安装部署hadoop3节点的环境,这对于学自动化的学生当然不甘心这么机械化操作和手工部署,后来也尝试了oracle 公司的VirtualBox和Vagrant部署hadoop,还是遇到部署好的环境占用资源,5G以上,装了其他的HBase,Hive,Mysql,Redis,流处理框架flume,kafka,storm等之后会更加多,甚至拷贝都有些困难,而且团队内的测试小伙伴,也需要按照部署的脚本(原因之一也是自己shell脚本写得不够好)去一步步修改配置文件修改,总之就是自动化程度低,部署时间长,无法迁移环境,后来就接触到docker这款轻量级的虚拟机,写了Dockerfile之后就会自动化部署,后来运用git+docker hub就可以实现编写Dockerfile push到github,dockerhub 就会自动化部署,只需要pull镜像下来就可以使用,或者build dockerfile。从此开始走上docker的虚拟化的道路。
这本书里面提到了刘斌老师翻译的书,恰巧我之前看了刘斌老师的docker视频,对于一些不是很理解的内容加深了运用,感谢刘斌老师。之后开始尝试使用swarm去部署docker集群,书本上讲到的kubernetes管理还没使用上,迟点对比swarm使用看看效果如何。
后面曾经使用docker搭建过3节点的hadoop,redis服务,还有web服务,感觉就是环境可迁移的能力大,一个Dockerfile就可以完成很多以前手工的任务。
测试成功
希望大家能在docker这条路一起并肩作战,话说我的师兄用docker搭建深度学习的框架,让我更加蠢蠢欲动了。