【大数据环境准备】(十五)Clickhouse安装

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: Clickhouse安装

安装包地址

https://clickhouse.yandex/

https://repo.clickhouse.tech/rpm/stable/x86_64/

1、准备工作

关闭防火墙 systemctl status firewalld

centos 取消打开文件数限制

2、安装包

[centos@hadoop10 clickhouse]$ ll
总用量 1018772
-rw-r--r--. 1 centos centos     38098 8月  27 23:03 clickhouse-client-22.3.20.29.x86_64.rpm
-rw-r--r--. 1 centos centos 246019423 8月  27 23:04 clickhouse-common-static-22.3.20.29.x86_64.rpm
-rw-r--r--. 1 centos centos 797084137 8月  27 23:05 clickhouse-common-static-dbg-22.3.20.29.x86_64.rpm
-rw-r--r--. 1 centos centos     62103 8月  27 23:03 clickhouse-server-22.3.20.29.x86_64.rpm

3、复制安装包

[centos@hadoop10 clickhouse]$ /data/xsync /data/module/clickhouse/

4、安装

[root@hadoop10 clickhouse]# rpm -ivh *.rpm
[root@hadoop10 clickhouse]# rpm -qa|grep clickhouse
clickhouse-server-22.3.20.29-1.x86_64
clickhouse-common-static-dbg-22.3.20.29-1.x86_64
clickhouse-common-static-22.3.20.29-1.x86_64
clickhouse-client-22.3.20.29-1.x86_64

5、更改配置

[root@hadoop11 clickhouse]# vim /etc/clickhouse-server/config.xml

1)配置允许被外部节点访问

把 :: 的注释打开,这样的话才能让ClickHouse被除本机以外的服务器访问

2)分发配置文件

在这个文件中,有ClickHouse的一些默认路径配置,比较重要的

  • 数据文件路径:/var/lib/clickhouse/
  • 日志文件路径:/var/log/clickhouse-server/clickhouse-server.log

6、启动clickserver

[root@hadoop11 clickhouse]# systemctl start clickhouse-server.service
[root@hadoop11 clickhouse]# systemctl status clickhouse-server.service
● clickhouse-server.service - ClickHouse Server (analytic DBMS for big data)
   Loaded: loaded (/usr/lib/systemd/system/clickhouse-server.service; enabled; vendor preset: disabled)
   Active: active (running) since 日 2023-08-27 08:23:05 PDT; 12s ago
 Main PID: 50540 (clckhouse-watch)
    Tasks: 201
   CGroup: /system.slice/clickhouse-server.service
           ├─50540 clickhouse-watchdog --config=/etc/clickhouse-server/config.xml --pid-file=/run/clickhouse-server/clickhouse-server.pid
           └─50549 /usr/bin/clickhouse-server --config=/etc/clickhouse-server/config.xml --pid-file=/run/clickhouse-server/clickhouse-server.pid

8月 27 08:23:05 hadoop11 systemd[1]: Started ClickHouse Server (analytic DBMS for big data).
8月 27 08:23:05 hadoop11 clickhouse-server[50540]: Processing configuration file '/etc/clickhouse-server/config.xml'.
8月 27 08:23:05 hadoop11 clickhouse-server[50540]: Logging trace to /var/log/clickhouse-server/clickhouse-server.log
8月 27 08:23:05 hadoop11 clickhouse-server[50540]: Logging errors to /var/log/clickhouse-server/clickhouse-server.err.log
8月 27 08:23:06 hadoop11 clickhouse-server[50540]: Processing configuration file '/etc/clickhouse-server/config.xml'.
8月 27 08:23:06 hadoop11 clickhouse-server[50540]: Saved preprocessed configuration to '/var/lib/clickhouse/preprocessed_configs/config.xml'.
8月 27 08:23:06 hadoop11 clickhouse-server[50540]: Processing configuration file '/etc/clickhouse-server/users.xml'.
8月 27 08:23:06 hadoop11 clickhouse-server[50540]: Merging configuration file '/etc/clickhouse-server/users.d/default-password.xml'.
8月 27 08:23:06 hadoop11 clickhouse-server[50540]: Saved preprocessed configuration to '/var/lib/clickhouse/preprocessed_configs/users.xml'.

7、关闭服务器

systemctl disable clickhouse-server

8、客户端登录

[root@hadoop11 clickhouse]# clickhouse-client -m
ClickHouse client version 22.3.20.29 (official build).
Connecting to localhost:9000 as user default.

If you have installed ClickHouse and forgot password you can reset it in the configuration file.
The password for default user is typically located at /etc/clickhouse-server/users.d/default-password.xml
and deleting this file will reset the password.
See also /etc/clickhouse-server/users.xml on the server where ClickHouse is installed.

Code: 516. DB::Exception: Received from localhost:9000. DB::Exception: default: Authentication failed: password is incorrect or there is no user with such name. (AUTHENTICATION_FAILED)

密码不正确问题解决:

[root@hadoop11 clickhouse]# clickhouse-client --password
ClickHouse client version 22.3.20.29 (official build).
Password for user (default):
Connecting to localhost:9000 as user default.
Connected to ClickHouse server version 22.3.20 revision 54455.

hadoop11 :) show databases;

SHOW DATABASES

Query id: 558a6717-0b20-4da1-a1a6-c087ba2252a0

┌─name───────────────┐
│ INFORMATION_SCHEMA │
│ default            │
│ information_schema │
│ system             │
└────────────────────┘

4 rows in set. Elapsed: 0.011 sec.
相关文章
|
4月前
|
SQL 分布式计算 大数据
请问本地安装了大数据计算MaxCompute studio,如何验证联通性及基本DDL操作呢?
请问本地安装了大数据计算MaxCompute studio,如何验证联通性及基本DDL操作呢?
53 0
|
1月前
|
存储 数据可视化 数据挖掘
大数据环境下的房地产数据分析与预测研究的设计与实现
本文介绍了一个基于Python大数据环境下的昆明房地产市场分析与预测系统,通过数据采集、清洗、分析、机器学习建模和数据可视化技术,为房地产行业提供决策支持和市场洞察,探讨了模型的可行性、功能需求、数据库设计及实现过程,并展望了未来研究方向。
大数据环境下的房地产数据分析与预测研究的设计与实现
|
1月前
|
存储 SQL 大数据
大数据 - ClickHouse
大数据 - ClickHouse
41 0
大数据 - ClickHouse
|
2月前
|
JSON 分布式计算 大数据
MaxCompute操作报错合集之连接环境时,出现报错:TypeError: access_id and secret_access_key,该怎么解决
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
3月前
|
分布式计算 DataWorks 大数据
MaxCompute产品使用问题之如何同步两个环境的参数
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
3月前
|
分布式计算 DataWorks 监控
MaxCompute产品使用问题之如何将MaxCompute中的数据同步到ClickHouse的分区表中
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
3月前
|
分布式计算 Hadoop 大数据
【大数据】Hadoop下载安装及伪分布式集群搭建教程
【大数据】Hadoop下载安装及伪分布式集群搭建教程
155 0
|
4月前
|
大数据 Docker 容器
大数据 安装指南-----利用docker
大数据 安装指南-----利用docker
75 0
|
4月前
|
分布式计算 Hadoop 大数据
[大数据] mac 史上最简单 hadoop 安装过程
[大数据] mac 史上最简单 hadoop 安装过程
|
4月前
|
大数据 Linux 虚拟化
大数据软件基础(3) —— 在VMware上安装Linux集群
大数据软件基础(3) —— 在VMware上安装Linux集群
71 0

热门文章

最新文章