Apache Doris集群模式快速体验之标准部署(2)2

简介: Apache Doris集群模式快速体验之标准部署(2)2

FE配置

#同单节点初始化一样
vim fe/conf/fe.conf
#只需要修改priority_networks
priority_networks = [ip addr]/24

BE配置

#同单节点初始化一样
vim be/conf/be.conf 
#需要修改JAVA_HOME和priority_networks即可
JAVA_HOME=/usr/local/java/jdk1.8.0_361/
priority_networks = [ip addr]/24

初始化

#在doris01启动fe作为master节点
sh fe/bin/start_fe.sh --daemon
#分别在3个节点上启动be
sh be/bin/start_be.sh --daemon
#添加另外2个be到集群
alter system add backend "192.168.31.72:9050";
alter system add backend "192.168.31.136:9050";
#分别在另外2个节点上启动fe
./bin/start_fe.sh --helper 192.168.31.81:9010 --daemon
#添加另外2个fe到集群
ALTER SYSTEM ADD FOLLOWER "192.168.31.72:9010";
ALTER SYSTEM ADD FOLLOWER "192.168.31.136:9010";
#启动broker
sh dependencies/apache_hdfs_broker/bin/start_broker.sh --daemon
#添加broker到集群
ALTER SYSTEM ADD BROKER broker_name "192.168.31.81:8000"; 
#登录fe web查看be
http://192.168.31.81:8030/

集群测试

-- 建测试库
create database doris;
-- 建测试表
CREATE TABLE doris.doris_test ( 
  `id` varchar(1000) NULL COMMENT "来源库表键",
  `test01` BIGINT SUM DEFAULT "0" COMMENT "测试"
) ENGINE=OLAP
AGGREGATE KEY(`id`)
COMMENT "doris测试表"
DISTRIBUTED BY HASH(`id`) BUCKETS 1
PROPERTIES (
"replication_allocation" = "tag.location.default: 3",
"in_memory" = "false",
"storage_format" = "V2",
"storage_medium" = "HDD"
); 
-- 写入数据
insert into doris.doris_test values
('1',1),('1',1),('3',1);
-- 查询数据
select count(1) from doris.doris_test;
select * from doris.doris_test limit 100;
-- 查看表副本状态
ADMIN SHOW REPLICA STATUS FROM  doris.doris_test;

至此,基于 CentOS7标准部署的Apache Doris集群模式入门体验完成。

常见问题

wget下载失败

报认证相关的异常

#临时处理
wget --no-check-certificate  https....
#永久安装证书
sudo yum install -y ca-certificates

无法rz上传文件

异常:/bin/sh:UnixPty: Unable to write output -> Resource temporarily unavailable

#首先安装vsftpd
yum -y install vsftpd
#开启sftp服务
service vsftpd start
#使root可进行sftp登录使用,将下面两个文件中的root行注释
vim /etc/vsftpd/etc/vsftpd
vim /etc/vsftpd/etc/user_list
#重启sftp服务
service vsftpd restart
# 强制selinux验证改为警告,如果改为禁用会导致重启后无法登录
vim /etc/selinux/config
SELINUX=permissive
#本地shell测试
sftp -P 22  root@192.168.31.1
#输入密码进入,开始上传
#查看最终上传的目录
pwd 
#进入指定的上传目录
cd path 
#上传文件,必须是连接时当前目录下的文件
put a.txt 
#其它示例
#创建文件夹
mkdir dirname 
#下载文件
get b.txt 
#查看当前目录文件
ls 
#退出
exit 

安装常用包

#安装上传下载
yum install lrzsz
#安装tar压缩
yum install tar
#执行history时让所有用户生效-显示时间
vim /etc/profile
#底部追加
HISTTIMEFORMAT=" %F %T "
#......


相关文章
|
10天前
|
存储 SQL BI
毫秒级查询性能优化实践!基于阿里云数据库 SelectDB 版内核:Apache Doris 在极越汽车数字化运营和营销方向的解决方案
毫秒级查询性能优化实践!基于阿里云数据库 SelectDB 版内核:Apache Doris 在极越汽车数字化运营和营销方向的解决方案
毫秒级查询性能优化实践!基于阿里云数据库 SelectDB 版内核:Apache Doris 在极越汽车数字化运营和营销方向的解决方案
|
8天前
|
Apache 开发者
Apache Seata 如何解决 TCC 模式的幂等、悬挂和空回滚问题
【6月更文挑战第8天】Apache Seata 是一款分布式事务框架,解决TCC模式下的幂等、悬挂和空回滚问题。通过记录事务状态处理幂等,设置超时机制避免悬挂,明确标记Try操作成功来处理空回滚。Seata 提供丰富配置和管理功能,确保分布式事务的可靠性和效率,支持复杂事务处理场景,为企业业务发展提供支持。
29 7
|
10天前
|
弹性计算 JSON Cloud Native
Apache Doris 2.0.11 版本正式发布
Apache Doris 2.0.11 版本已于 2024 年 6 月 5 日正式与大家见面,该版本提交了 123 个改进项以及问题修复,进一步提升了系统的性能及稳定性,欢迎大家下载体验。
|
16天前
|
存储 运维 5G
基于阿里云数据库 SelectDB 内核 Apache Doris 的实时/离线一体化架构,赋能中国联通 5G 全连接工厂解决方案
数据是 5G 全连接工厂的核心要素,为支持全方位的数据收集、存储、分析等工作的高效进行,联通 5G 全连接工厂从典型的 Lambda 架构演进为 All in [Apache Doris](https://c.d4t.cn/vwDf8R) 的实时/离线一体化架构,并凭借 Doris 联邦查询能力打造统一查询网关,数据处理及查询链路大幅简化,为联通 5G 全连接工厂带来数据时效性、查询响应、存储成本、开发效率全方位的提升。
基于阿里云数据库 SelectDB 内核 Apache Doris 的实时/离线一体化架构,赋能中国联通 5G 全连接工厂解决方案
|
19天前
|
OLAP 数据处理 Apache
众安保险 CDP 平台:借助阿里云数据库 SelectDB 版内核 Apache Doris 打破数据孤岛,人群圈选提速4倍
众安保险在CDP(Customer Data Platform,客户数据平台)建设中,通过引入阿里云数据库SelectDB版内核Apache Doris,成功打破了数据孤岛,并显著提升了人群圈选的速度
184 1
|
20天前
|
运维 Cloud Native Apache
云计算新宠:探索Apache Doris的云原生策略
云计算新宠:探索Apache Doris的云原生策略
|
3天前
|
监控 大数据 Java
使用Apache Flink进行大数据实时流处理
Apache Flink是开源流处理框架,擅长低延迟、高吞吐量实时数据流处理。本文深入解析Flink的核心概念、架构(包括客户端、作业管理器、任务管理器和数据源/接收器)和事件时间、窗口、状态管理等特性。通过实战代码展示Flink在词频统计中的应用,讨论其实战挑战与优化。Flink作为大数据处理的关键组件,将持续影响实时处理领域。
38 5
|
24天前
|
消息中间件 Java Kafka
实时计算 Flink版操作报错之Apache Flink中的SplitFetcher线程在读取数据时遇到了未预期的情况,该怎么解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
4天前
|
数据采集 关系型数据库 MySQL
使用Apache Flink实现MySQL数据读取和写入的完整指南
使用Apache Flink实现MySQL数据读取和写入的完整指南
使用Apache Flink实现MySQL数据读取和写入的完整指南
|
8天前
|
消息中间件 Kafka 数据处理
Apache Flink:流式数据处理的强大引擎
【6月更文挑战第8天】Apache Flink是开源的流处理框架,专注于高效、低延迟的无界和有界数据流处理。它提供统一编程模型,支持实时与批量数据。核心概念包括DataStreams、DataSets、时间语义和窗口操作。使用Flink涉及环境设置、数据源配置(如Kafka)、数据转换(如map、filter)、窗口聚合及数据输出。通过丰富API和灵活时间语义,Flink适于构建复杂流处理应用,在实时数据处理领域具有广阔前景。

推荐镜像

更多