D002 复制粘贴玩大数据之便捷配置

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 进入容器脚本配置; Web UI界面查看配置; 编写查看各节点进程脚本

0x01 进入容器脚本配置


1. 生成进入hadoop-master容器脚本


ps:启动为root用户,/root路径

echo "docker attach hadoop-master" >> master.sh


2019012515561712.png


2. 启动脚本进入容器

sh master.sh


2019012516042843.png


3. 配置hadoop-slave1、hadoop-slave2

echo "docker attach hadoop-slave1" >> slave1.sh

sh slave1.sh

exit

echo "sudo docker attach hadoop-slave2" >> slave2.sh

sh slave2.sh


20190125160607941.png


0x02 Web UI界面查看配置


1. Windows配置域名映射

a. 修改hosts文件,路径为(自行安装Notepad++软件或者记事本打开也行):

C:\Windows\System32\drivers\etc


20190125153953577.png


b. 添加映射(ip 用户名):

ps:

读者只需要添加一条即可

shaonaiyit为shaonaiyitest的简写


2019012515443736.png


c. 保存退出,如无法保存,请以管理员方式打开


2. 校验域名映射


a. 访问shaonaiyit:51070(修改为自己虚拟机的用户名)


20190125161015845.png


说明配置域名映射成功,可以直接使用用户名代替ip了,此操作是在windows系统上。


0x03 编写查看各节点进程脚本


1. jps_all.sh脚本

vi jps_all.sh

#!/bin/bash
for ip in hadoop-master hadoop-slave1 hadoop-slave2
do
    echo "------------[ jps $ip ]---------------"
    ssh root@$ip "source /etc/profile;jps"
done

chmod 700 jps_all.sh

0xFF 总结


  1. 容器生成不太稳定啊!有时ssh不通过,有时节点为DEAD,生成了几遍才成功!!
  2. 还要注意,如果执行./start-hadoop.sh有错,要先删除之前的容器,再重新生成容器
  3. 配置这三项的目的说一下:

a. 写个脚本,减少打这么长指令:docker attach hadoop-master 的时间

b. 配置域名映射,减少打ip的时间,用户名更容易记住且有利于扩展

c. 用jps查看各个节点的进程,写了脚本之后,只需要在一个节点执行脚本及可查看三个节点的进程,不需要再分别进各个节点jps




相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
5月前
|
分布式计算 资源调度 大数据
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(一)
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(一)
164 0
|
5月前
|
分布式计算 资源调度 大数据
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(二)
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(二)
134 0
|
5月前
|
消息中间件 监控 Ubuntu
大数据-54 Kafka 安装配置 环境变量配置 启动服务 Ubuntu配置 ZooKeeper
大数据-54 Kafka 安装配置 环境变量配置 启动服务 Ubuntu配置 ZooKeeper
169 3
大数据-54 Kafka 安装配置 环境变量配置 启动服务 Ubuntu配置 ZooKeeper
|
5月前
|
存储 分布式计算 druid
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
75 1
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
|
5月前
|
XML 分布式计算 资源调度
大数据-02-Hadoop集群 XML配置 超详细 core-site.xml hdfs-site.xml 3节点云服务器 2C4G HDFS Yarn MapRedece(一)
大数据-02-Hadoop集群 XML配置 超详细 core-site.xml hdfs-site.xml 3节点云服务器 2C4G HDFS Yarn MapRedece(一)
286 5
|
5月前
|
运维 监控 数据可视化
大数据-171 Elasticsearch ES-Head 与 Kibana 配置 使用 测试
大数据-171 Elasticsearch ES-Head 与 Kibana 配置 使用 测试
242 1
|
5月前
|
XML 资源调度 网络协议
大数据-02-Hadoop集群 XML配置 超详细 core-site.xml hdfs-site.xml 3节点云服务器 2C4G HDFS Yarn MapRedece(二)
大数据-02-Hadoop集群 XML配置 超详细 core-site.xml hdfs-site.xml 3节点云服务器 2C4G HDFS Yarn MapRedece(二)
261 4
|
5月前
|
分布式计算 资源调度 Hadoop
大数据-01-基础环境搭建 超详细 Hadoop Java 环境变量 3节点云服务器 2C4G XML 集群配置 HDFS Yarn MapRedece
大数据-01-基础环境搭建 超详细 Hadoop Java 环境变量 3节点云服务器 2C4G XML 集群配置 HDFS Yarn MapRedece
168 4
|
5月前
|
消息中间件 分布式计算 druid
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(二)
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(二)
72 2
|
5月前
|
消息中间件 分布式计算 Java
大数据-73 Kafka 高级特性 稳定性-事务 相关配置 事务操作Java 幂等性 仅一次发送
大数据-73 Kafka 高级特性 稳定性-事务 相关配置 事务操作Java 幂等性 仅一次发送
63 2