Cloudera Manager环境搭建【二】

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: 默认的方式下linux会把文件访问的时间atime做记录,文件系统在文件被访问、创建、修改等的时候记录下了文件的一些时间戳,比如:文件创建时间、最近一次修改时间和最近一次访问时间;这在绝大部分的场合都是没有必要的。

1. 目标


进行Linux优化配置


安装Cloudera Manager的Server和Agent


安装Cloudera Manager监控Service


使用CM安装大数据组件


使用CM添加新服务器


2. Linux配置优化


2.1 Swappiness虚拟内存

swappiness是Linux的一个内核参数,控制系统在使用swap虚拟内存时,内存使用的相对权重。


swappiness参数值可设置范围在0到100之间。 此参数值越低,就会让Linux系统尽量少用swap虚拟内存分区,多用内存;参数值越高就是反过来,使内核更多的去使用swap空间。推荐设置为10。根据服务器硬件配置会有变化。


临时生效:


sysctl -w vm.swappiness=10


永久生效:


echo “vm.swappiness=10” >> /etc/sysctl.conf


2.2 关闭内存动态分配(内存页透明化)


自CentOS6版本开始引入了Transparent Huge Pages(THP透明的巨大的页面),从CentOS7版本开始,该特性默认就会启用。


Transparent HugePages是在运行时动态分配内存的,而标准的HugePages是在系统启动时预先分配内存,并在系统运行时不再改变。


因为Transparent HugePages是在运行时动态分配内存的,所以会带来在运行时内存分配延误。


因此,尽管THP的本意是为提升内存的性能,不过某些数据库厂商还是建议直接关闭THP(比如说Cloudera、ORACLE、MariaDB、MongoDB等),否则可能会导致性能出现下降。


临时生效:


echo never > /sys/kernel/mm/transparent_hugepage/defragecho never > /sys/kernel/mm/transparent_hugepage/enabled


永久生效:


echo “echo never > /sys/kernel/mm/transparent_hugepage/defrag” >> /etc/rc.localecho “echo never > /sys/kernel/mm/transparent_hugepage/enabled” >> /etc/rc.local


2.3 最大文件句柄


Maximum File Handles,大数据服务可能会打开非常大量的文件句柄。通过编辑 /etc/security/limits.conf 来增加限制,添加类似的内容:


hard nofile 50000* soft nofile 50000

第一行是指定用户,前面的 * 代表所有用户。


2.4 最大派生进程数


Maximum Forked Processes,配置允许生成大量的线程。要增加Linux允许的数量,编辑 /etc/security/limits.conf


hard nproc 10000* soft nproc 10000

发行版Linux可能需要通过添加来编辑 /etc/security/limits.d/20-nproc.conf


soft nproc 10000


2.5 TCP Socket*端口数


增加可用的TCP套接字端口数(Increase the number of TCP socket ports available),如果你的流程会在很短的时间内创建并拆除大量socket,这一点尤为重要。


sudo sysctl -w net.ipv4.ip_local_port_range =“10000 65000”


2.6 缩减Socket闲置*时间


socket连接闲置太长时间会影响并发量,设置socket在保持TIMED_WAIT状态的时间,能够快速创建和销毁新socket。


sudo sysctl -w net.ipv4.netfilter.ip_conntrack_tcp_timeout_time_wait =“1”


2.7 提高IO性能


默认的方式下linux会把文件访问的时间atime做记录,文件系统在文件被访问、创建、修改等的时候记录下了文件的一些时间戳,比如:文件创建时间、最近一次修改时间和最近一次访问时间;这在绝大部分的场合都是没有必要的。


因为系统运行的时候要访问大量文件,如果能减少一些动作(比如减少时间戳的记录次数等)将会显著提高磁盘 IO 的效率、提升文件系统的性能。


如果遇到机器IO负载高或是CPU WAIT高的情况,可以尝试使用noatime和nodiratime禁止记录最近一次访问时间戳。你会发现吞吐量有惊人的提高。


比如我要在根文件系统使用noatime,可以编辑/etc/fstab文件,如下:


/dev/mapper/centos-root / xfs defaults,noatime 0 0UUID=47f23406-2cda-4601-93b6-09030b30e2dd /boot xfs defaults 0 0/dev/mapper/centos-swap swap swap defaults 0 0


修改后重新挂载


mount -o remount /或者mount -o remount /boot


3. 安装Server和Agent


3.1 安装Server服务


此步骤仅在第一台服务器安装。


yum install -y oracle-j2sdk1.8-1.8.0+update181-1.x86_64yum install -y enterprise-debuginfo-6.2.1-1426065.el7.x86_64yum install -y cloudera-manager-server-6.2.1-1426065.el7.x86_64yum install -y cloudera-manager-server-db-2-6.2.1-1426065.el7.x86_64


注意:如果在yum源中添加了新的包时:


1.需要删除之前的repodata文件后,重新生成;


2.重启httpd服务


3.清除yum缓存 yum clean all


82bce9d01f458b866af8a9d8f4f162ed.jpeg


3.2 设置元数据库为mysql


设置元数据库为mysql–前提是安装ClouderaManager Server服务


/opt/cloudera/cm/schema/scm_prepare_database.sh -h localhost mysql scm root 123456


旧版本CM:


/usr/share/cmf/schema/scm_prepare_database.sh -h localhost mysql scm root 123456


如果提示ERROR JDBC Driver com.mysql.jdbc.Driver not found,需要上传mysql驱动包jar到/opt/cloudera/cm/lib目录下。


79120cd8761413b5034d4e9aa64501cd.jpeg


Mysql驱动在资料中已提供:


7c95df6bb39d4dde6f44e52bc5f87e75.jpeg


查看:cat /etc/cloudera-scm-server/db.properties


9f3bfcfda836d465b8c4b0f52410adfb.jpeg


3.3 启动server服务进程(查看7180端口)


启动:


systemctl start cloudera-scm-server


查看server启动日志:


tail -f /var/log/cloudera-scm-server/cloudera-scm-server.log


日志配置信息:/etc/cloudera-scm-server/log4j.properties


Agent日志目录:/var/log/cloudera-scm-agent/cloudera-scm-agent.log


查看启动状态:

723c46a82c5315c8d50f363102ada43a.jpeg

#查看启动状态systemctl status cloudera-scm-server #查看端口号是否已经运行netstat -an | grep 7180

98fed7426e8453036f81c7b9e2bc0a3f.jpeg

3.4 配置本地parcel包


注意:必须要在数据库初始化后,将parcel文件放置到/opt/cloudera/parcel-repo目录中。


上传cdh6的parcel等文件到opt/cloudera/parcel-repo


重命名密钥文件名


mv CDH-6.2.1-1.cdh6.2.1.p0.1425774-el7.parcel.sha1 CDH-6.2.1-1.cdh6.2.1.p0.1425774-el7.parcel.sha


870230a03a098633352c3617b2420768.jpeg


资料文件目录:


2674bf5fb0aef53ba8ce404ce8d2fcb1.jpeg


3.5 开始安装


访问Server:http://hadoop01:7180/cmf/login


账号密码均为admin


a7376fcb25fc96c6655649d47dd511c6.jpeg


登录后,先不要安装,先返回首页:


374edc1365860cf004fc71a00c755fed.jpeg


先设置Parcel 更新频率:


d290e4ec1c9068dfeec63593dffe2d8b.jpeg


修改为1分钟:


5dd773ccb978001775869aabf17eb017.jpeg


如果目录下已经有了后缀为torrent的文件,则证明识别成功:


29268847758a05882c30a0da18c19a4e.jpeg


然后重新进入添加集群页面:

a662fe34ae19143544c41484ed4405bd.jpeg

下一步:

6f868ddf5ac38833574d7162f7c43d34.jpeg

选择免费版本的ClouderaManager:

5ce4ff4937ef221b8e53d2058f1f7820.jpeg

设置集群名称:

cf737890bcd3ebd5c4ee7c9d4c93242f.jpeg

选择安装的服务器:

162535f35d44afb68ef1c146adf9a4af.jpeg

选择存储库:

f8e5d804354caa7a1ff3e8fe57229828.jpeg

f80628705a532ca0a41ced2d72bdd9fa.jpeg

6cfb018dd952f0aa286485821902d8a9.jpeg

运行安装:

3f87c25dc158a86b2f419a28306e3d91.jpeg

ab8290013eb0c3bd40dadbd332712ac8.jpeg

测试网络和主机:

af4ea3ec32ce59f523f30da89605a47d.jpeg

查看检查结果:

0ce555144b21b487c447c9f06181c60a.jpeg

如果有问题,就需要修复后再继续

4dc7b15a6b24f41b79843ca983b3f09a.jpeg

图中显示的问题,就是下一步要处理的,swappiness和透明化。


3.6 swappiness和透明化


临时生效:


sysctl -w vm.swappiness=10echo never > /sys/kernel/mm/transparent_hugepage/defragecho never > /sys/kernel/mm/transparent_hugepage/enabled


永久生效:


echo “vm.swappiness=10” >> /etc/sysctl.confecho “echo never > /sys/kernel/mm/transparent_hugepage/defrag” >> /etc/rc.localecho “echo never > /sys/kernel/mm/transparent_hugepage/enabled” >> /etc/rc.local


3.7 继续创建集群


然后回到刚才的安装页面,选择继续创建集群:

790f575cabe642f4d92ad9e383307400.jpeg

安装成功,返回首页查看主机:

da35404f9b0dc3908a701ddadf1a89fc.jpeg

3.8 添加第二台主机


45c459ea6310da5918a0cf9531fd25ac.jpeg45c459ea6310da5918a0cf9531fd25ac.jpeg45c459ea6310da5918a0cf9531fd25ac (1).jpeg4a6bc74067a477b61c045890a2c25694.jpeg

添加第二台服务器节点:

9477ecd8173da24bbd5d925933a7e29e.jpeg

9adcf72c57c278e00d92f79f88d0c68f.jpeg

546d1b8c8dd97cce670d3480ca9a9662.jpeg

37d086f5cccb8b558bfd207946df6102.jpeg

677e3e9a32933506d9f466015b2a40c9.jpeg

b3a7fada326b93873c1d45f80129edb6.jpeg

63feabfba068db752a6ea3c7f631a77a.jpeg

运行检查后,对hadoop02节点也要执行swappiness和透明化操作。然后继续下一步:

c106b13819eeb53d3f857c093649c866.jpeg



添加新节点完成:

d2393c35eb1e4b46a5d6f9a943524667.jpeg



4. 添加监控Service


4.0.1 功能

Cloudera Management Service可作为一组角色实施各种监控管理


1.Activity Monitor:收集关于MapReduce服务运行的活动的信息。默认情况下不添加此角色,实际生产环境也是不需要的。


2.Host Monitor:收集有关主机的运行状况和指标信息。


3.Service Monitor:从YARN和Impala服务中收集关于服务和活动信息的健康和度量信息。


4.Event Server:聚合组件的事件并将其用于警报和搜索。


5.Alert Publisher :为特定类型的事件生成和提供警报,实际情况下用的也少。


4.0.2 安装

开始添加

d5e0dc709dc13c325318333a4a07846b.jpeg


自定义角色分配服务器

69adf9887d011308d2b3a8cfc786bc7c.jpeg


分配权限后继续

mkdir -p /var/lib/cloudera-host-monitormkdir /var/lib/cloudera-service-monitorchown -R cloudera-scm:cloudera-scm /var/lib/cloudera-host-monitorchown -R cloudera-scm:cloudera-scm /var/lib/cloudera-service-monitor/


18cb09ed7ea4fdc8f581a0d4efdc30b7.jpeg


开始安装

2e5d809bc086ea87291587f56d9339c9.jpeg


可以看到报警信息

ad3e9e62c082a7ce95c3ea0f646132dd.jpeg


经过一段时间后,可以看到这段时间内的服务器监控信息

36278d83d1a8e5caf70c4e453c7f7e20.jpeg


5. 添加大数据组件


5.1 添加HDFS服务


点击添加

23f9be243bbd5153021ed93ba4fa84e1.jpeg


选择HDFS

d9cf1cfe69cae858d15e68a45c1e47aa.jpeg


自定义角色分配服务器

58fcdb535dbdcc9852da474bba434842.jpeg


审核更改使用默认配置下一步


运行安装命令

c29fb772acd59d56d541eb370101a63d.jpeg


等待完全启动

安装以后,会有一些异常信息,这是还没有完全启动,需要等待一段时间。

01eb5c870981a7b0a39a4f6c2975aeb8.jpeg

抑制无关紧要的警告信息

d2848713d7a883e65713a45861b60a78.jpeg


HDFS配置项dfs.permissions,改为false,否则会因为权限问题不能再hdfs中创建目录和文件。

Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException): Permission denied: user=admin, access=WRITE, inode=“/user”:hdfs:supergroup:drwxr-xr-x at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:400)

4387d4df3bc1b3aa0a494c98de51c771.jpeg

21ea502c820c2f7935f42a8fce633168.jpeg

设置后需要重启服务

dd04dd692d8cbbf885137070da17f086.jpeg

26b7a22d92198b1705e1c8b2e7746bd1.jpeg

33071a019483fe45a81fffda859270f4.jpeg

关闭safemode模型

#查看当前的safemode状态hdfs dfsadmin -safemode get#关闭safemodehdfs dfsadmin -safemode leave


查看Hadoop WebUI

0fce32dd6049f64b0cc85c50da76ad7f.jpeg

2651f22202b85aa015725446405a6776.jpeg

测试HDFS

hdfs dfs -mkdir /test


5.2 添加Yarn服务


添加服务

66bc1513e7b0371c4766c43cf8a8dc24.jpeg

角色分配服务器

03d7d39811fc831568c7bcd27139b15e.jpeg


使用默认配置

b7b63424f47df6a253a0785792a362db.jpeg


运行安装命令

594dd832919203232903ad5ac7d50831.jpeg


对于无用的警告可以压制掉

21e5496835dff7d0705a852fca63d653.jpeg


测试

#新建一个文本文件vim testinput.txt

4a4c1f386a9c0a0cd46f12d688279f6f.jpeg

bef9c1a729f9041300c8a1678c4c4470 (1).jpeg

bef9c1a729f9041300c8a1678c4c4470.jpeg

#创建HDFS目录hadoop fs -mkdir /input #上传文件到HDFShadoop fs -put

ac8a7b4181748024e391cbd7527b2c0d.jpeg

/home/hadoop/data/testiinput.txt /input #运行WordCountyarn jar /opt/cloudera/parcels/CDH/jars/hadoop-mapreduce-examples-3.0.0-cdh6.2.1.jar wordcount /input /output #执行结束后,

02f61178d40cffa0001c15eab09d5661.jpeg

查看输出目录hadoop fs -ls /output #查看输出结果hadoop fs -cat /output/part-r-00000

7a079cd8cc561937d584bfdcca77b2ef.jpeg

1be47f1e13e9d6a5864bc7f4c54df8ea.jpeg


5.3 添加Zookeeper服务


添加

b144bc1d7e7ccea715298db2f7d3ece8.jpeg


自定义角色服务器

c77cce16b72ee141817877fc6b0e088a.jpeg


如果有异常报警,请等待一段时间完全启动后再刷新看看

c36f1ecc3248885933f75685064b3c38.jpeg

ed0a97db9e5a147fd825bfbbf5e7cf5d.jpeg


5.4 添加Hive服务


添加服务

260948c2be84c631342fa8cd03d752b4.jpeg


选择依赖

79929d47e0feebce14b66f1da8427221.jpeg


自定义角色分配服务

e3e6ccf9f25490f87f9e1b41ccfa1ca7.jpeg


设置元数据库

ce14fdc28b7f76312050213a0544d944.jpeg


点击测试连接

8d2e2597afa9a4a880f955e54e9cf8e9.jpeg

提示ERROR JDBC Driver com.mysql.jdbc.Driver not found.


需要上传mysql驱动包jar到/opt/cloudera/cm/lib目录下。


继续测试

df5c54882318f2bdde8e338d773df021.jpeg

提示:java.lang.ClassNotFoundException: com.mysql.jdbc.Driver。


需要先创建数据库:


mysql -uroot -pcreate database hive;


测试通过

59aa4eee4297040be837ae3d45b7779c.jpeg


审核更改

5ae9afb0b395e6efc3e7d972949e2500.jpeg

运行命令

发现报错

a1eb9660ae0763fdaeb6b939d468cb17.jpeg

点击stderr查看报错详情

612437afef5430f31be99c0258ff4814.jpeg

提示:java.lang.ClassNotFoundException: com.mysql.jdbc.Driver


之前是CM找不到驱动,现在是Hive找不到mysql驱动:


cp /opt/cloudera/cm/lib/mysql-connector-java-5.1.40.jar /opt/cloudera/parcels/CDH/lib/hive/lib/


完成安装

51727298c3e78e404829691fb6af9eeb.jpeg

查看HiveServer2 Web UI

882c4650042b5e6aebd98fb4272dcc82.jpeg

验证Hive是否可用

hiveselect from_unixtime(1583781807, ‘yyyy-MM-dd’);

71a6ab9374e838afab58e2fac1b4daa3.jpeg


5.5 添加Oozie服务


添加服务

d1cdfbb23e4cc18777c9bf5c62fbc79f.jpeg

选择依赖

cd050cf5715cd3012eeadd1d2fb9151c.jpeg

分配服务器

2bac69693575feb60c88789088a271d0.jpeg

设置元数据库

先在mysql中创建数据库


mysql -uroot -pcreate database oozie;


然后配置并测试连接:

12abb5d4e63ced79f6fe033acea13715.jpeg

运行安装命令

0487d7f957cee1e02017ada0b4427a97.jpeg


提示:java.lang.ClassNotFoundException: com.mysql.jdbc.Driver


需要复制驱动jar:


cp /opt/cloudera/cm/lib/mysql-connector-java-5.1.40.jar /opt/cloudera/parcels/CDH/lib/oozie/lib/cp /opt/cloudera/cm/lib/mysql-connector-java-5.1.40.jar /var/lib/oozie/


安装成功

6f99d5ff5d6d2b44839be7d1ff2e935c.jpeg


5.6 添加Sqoop服务


添加服务

虽然现在已经有sqoop2.x版本,但还是推荐大家使用1.x。

3dc30e3ff8dffd43531c744fc015e2b5.jpeg

角色分配服务器


e3b506a0e2893908e282539c9b1b9691.jpeg

安装完成

ea4b1d9a3061d4d14412c085ca13d0c5.jpeg

799e0edda2169b1d464b2d82925244cb.jpeg

测试sqoop

4.1 创建mysql测试库和表


mysql -uroot -pcreate schema test;create table test( id bigint auto_increment, name varchar(127) not null, age bigint null, class varchar(255) null, primary key (id));


4.2 创建文本文件并上传到HDFS


#创建文件vim text.txtleo|12|class1leo1|13|class2leo2|14|class3leo3|15|class4leo4|16|class5leo5|17|class6


#上传到HDFShdfs dfs -mkdir -p /data/test/hdfs dfs -put ./test.txt /data/test/


#查看是否上传成功hdfs dfs -cat /data/test/*

f440406612256c39c3430a715960fa35.jpeg

4.3 执行sqoop命令


sqoop export --connect jdbc:mysql://hadoop01:3306/test --username root --password 123456 --table test --columns ‘name,age,class’ --export-dir /data/test --input-fields-terminated-by ‘|’ --num-mappers 1


4.4 发现报错,缺少驱动

409ae3e3b59fa47d1922d1bc1fa85d10.jpeg

复制驱动,然后重试sqoop脚本:


cp /opt/cloudera/cm/lib/mysql-connector-java-5.1.40.jar /opt/cloudera/parcels/CDH/lib/sqoop/lib/


4.4 查看mysql表是否有数据

1746235f048ddab9e20456f9fdc40aa5.jpeg


5.7 添加Hue服务


添加服务

ee577a29dae88e60808ac8756200a930.jpeg


选择依赖

5510a6dfa219c34c69e65b0981c8c738.jpeg


分配服务器

7837f5eb33985c7d008c081f1b110ea6.jpeg


创建元数据库

mysql -uroot -pcreate database hue default character set utf8 collate utf8_general_ci;


数据库设置并测试连接


d4ddb92bf629bfe40f8df0a10947b947.jpeg

成功

e44f03f463b1c8a38776c91d849f3d65.jpeg

访问WEB Ui

04cf65bb9744c3bbef81eba8738557d9 (1).jpeg

04cf65bb9744c3bbef81eba8738557d9.jpeg

成功

7a9fd431b1af9d1a4c4183694954aff6.jpeg


6. 添加新服务器


启动新的服务器

f8474b5e6436059b0ef225f5214879a8.jpeg

配置host 和 ip

vim /etc/hosts192.168.52.150 hadoop01192.168.52.151 hadoop02192.168.52.152 hadoop03192.168.52.153 hadoop04


安装依赖包

yum install -y cyrus-sasl-plain cyrus-sasl-gssapi portmap fuse-libs bind-utils libxslt fuseyum install -y /lib/lsb/init-functions createrepo deltarpm python-deltarpmyum install -y mod_ssl openssl-devel python-psycopg2 MySQL-python


关闭防火墙

查看防火墙状态: systemctl status firewalld.service


绿的running表示防火墙开启


执行关闭命令: systemctl stop firewalld.service


再次执行查看防火墙命令:systemctl status firewalld.service


执行开机禁用防火墙自启命令 : systemctl disable firewalld.service


关闭selinux

#临时生效setenforce 0 #永久生效#将SELINUX=enforcing改为SELINUX=disabledvim /etc/selinux/config

d8c1f4beab0208f8d9406b689667c097 (1).jpeg

#在配置文件中第一次设置时需要重启服务器reboot

d8c1f4beab0208f8d9406b689667c097.jpeg

确保第一台主机的httpd服务正常使用

#查看当前状态systemctl status httpd.service #启动systemctl start httpd.service

5bf35c7567705cbd574e9e0c621550b1.jpeg

确保访问正常

4406a80718738e11e57a0dee12537440.jpeg

配置本地yum源

cd /etc/yum.repos.d/vim cloudera-manager.repo[cloudera-manager]name=Cloudera Managerbaseurl=http://hadoop01/cm6/6.2.1/redhat7/yum/gpgcheck=0enabled=1yum clean all yum list | grep cloudera

be6b735949b265b54509decd6a3bd1fb.jpeg

创建cloudera-scm用户

useradd cloudera-scmpasswd cloudera-scmtest123456#免密钥登录echo “cloudera-scm ALL=(root)NOPASSWD:ALL” >> /etc/sudoerssu - cloudera-scmexit


使用CM添加新主机

9.1 添加新主机

d09f51e781c8b9eca6e800b97c98fe30.jpeg

9.2 使用原来的集群

5637289414cac8c47d3ce8b9e379fc0d.jpeg

9.3 搜索选择服务器

ee95cefb0ef79ba25c1630fe60f51f05.jpeg

9.4 选择存储库

b15849de76f728c7b0363a86a4ace703.jpeg

9.5 安装JDK

768c870bfd462ce48ec58210e9baa900.jpeg

9.6 root登录凭据

98de705ec97d286f2d008acf8564ddf2.jpeg

9.7 开始安装

38de32ff17e5c3f5477d8cc76cff755f.jpeg

检查主机正确性

478b607de17855f34281b70a3e62736f.jpeg

修复监测问题

临时生效:


sysctl -w vm.swappiness=10echo never > /sys/kernel/mm/transparent_hugepage/defragecho never > /sys/kernel/mm/transparent_hugepage/enabled


永久生效:


echo “vm.swappiness=10” >> /etc/sysctl.confecho “echo never > /sys/kernel/mm/transparent_hugepage/defrag” >> /etc/rc.localecho “echo never > /sys/kernel/mm/transparent_hugepage/enabled” >> /etc/rc.local


然后回到刚才的安装页面,选择继续创建集群:

30a0aef1c1299bda3d5b679c79e17154.jpeg

安装成功,返回首页查看主机:

257084f243f0b52e66414dd2603f6c1e.jpeg

针对已安装的不同服务,添加新服务器的角色实例

20a368e73531ca29cc24a01a0e2e0784.jpeg

1afef849c67c749c5c18969026f79418.jpeg

目录
相关文章
|
SQL 关系型数据库 MySQL
66 Azkaban安装部署
66 Azkaban安装部署
83 0
|
SQL 分布式数据库 HIVE
ambari发布新服务(HDP自带的服务)流程简介
ambari发布新服务(HDP自带的服务)流程简介
158 0
ambari发布新服务(HDP自带的服务)流程简介
|
存储 SQL 资源调度
Cloudera Manager主机管理
Cloudera Manager 提供了多种功能来管理集群中的主机
Cloudera Manager主机管理
Cloudera Manager 进程管理
本文主要介绍了使用 Cloudera Manager 启动和停止进程。
Cloudera Manager 进程管理
|
分布式计算 关系型数据库 Java
Ambari搭建
Ambari搭建和使用
2199 0
|
监控 关系型数据库 大数据
搭建企业级大数据平台Cloudera Manager + CDH 5.8 + CentOS7
本文讲述企业级大数据平台Cloudera Manager的安装和使用,Cloudera Manager具有集群管理,监控,报警,集成Hadoop等强大功能,是大部分企业所使用的集群管理平台。
|
SQL 分布式计算 Hadoop
|
存储 分布式计算 Hadoop
Cloudera Manager简介
Hadoop家族 整个Hadoop家族由以下几个子项目组成: Hadoop Common: Hadoop体系最底层的一个模块,为Hadoop各子项目提供各 种工具,如:配置文件和日志操作等。 HDFS: 是Hadoop应用程序中主要的分布式储存系统, HDFS集群包含了一个NameNo
27957 1
|
关系型数据库 MySQL API
Cloudera Edge Manager简述
一.Description CDF(Cloudera DataFlow)源自HDF(Hortonworks DataFlow),HDF是一个可缩放的实时流分析平台,它可以提取、组织和分析数据,以获得关键洞察和即时的可操作情报。
2111 0
|
分布式计算 Hadoop Docker
使用Docker搭建Cloudera Hadoop 环境搭建
单节点 单节点:https://hub.docker.com/r/cloudera/quickstart/ 相关命令 docker pull cloudera/quickstart:latest docker run --privileged=true --hostname=quickstart.
4163 0