Apache Doris FE 元数据常见故障处理

简介: Apache Doris FE 元数据常见故障处理

该处理方法适用于 Apache Doris 0.14.7 及之后所有版本


常见问题


FE (Follower)挂掉


出现类似下面的错误

5.png

解决方案:


单个 FE (Follower)情况


  • 如果是单个FE,直接在conf/fe.conf 中加入 metadata_failure_recovery=true

  • 在访问正常之后,将上面元数据恢复模式设置成false,或者将这个配置项注释掉

  • 最后重启 FE

  • 如果有 Observer

  1. 1.首先停掉所有的 Observer(正常情况下 Follower出问题,Observer 也会挂掉)

  2. 2.使用上面元数据恢复模式,将Follower 恢复正常之后

  3. 3.在MySQL 客户端或者命令行下连接Follower(Master)节点

  4. 4.执行下面的命令
  5. 5.png
  • 然后到Observer 节点上,将Observer 元数据目录清空(可以先备份)

  • 然后使用下面的命令启动Observer
sh bin/start_fe.sh --helper master_fe_ip:port --daemon
master_fe_ip:你要Master FE 节点IP,如果是单个Follower就是你的这个Follower节点IP
port:fe.conf 中的 edit_log_port,默认9010
  1. 1.在MySQL 客户端或者命令行下连接Follower(Master)节点执行下面的命令
ALTER SYSTEM ADD OBSERVER "OBSERVER_IP:PORT";
这里是你刚才启动Observer节点加入到集群中那个
OBSERVER_IP:你要加入的Observer 节点IP
PORT:fe.conf 中的 edit_log_port,默认9010
  1. 2.查看FE运行状态
show fontends;
查看FE(Follower 和你刚才添加的 Observer 运行状态是否正常)
你也可以通过查看你刚才添加的Observer 的日志log/fe.log 观察是否启动正常

多个 FE (Follower)情况


  • 在所有 FE 的元数据目录下查看image/image.xxxx

  • 找出image.xxxx 这个xxxx 数字最大的这个节点,这个数字最大说明这个节点的元数据是最新的

  • 然后按照上面单个 Follower + 多个 Observer 的恢复流程进行操作,只不过 Observer 换成 Follower 即可。

FE 因为没有配置 priority_networks 启动错误


FE在启动的时候报类似下面的错误

java.io.IOException: the self host 172.31.26.7 does not equal to the host in ROLE file 172.17.0.1\. You need to set 'priority_networks' config in fe.conf to match the host 172.17.0.1     at org.apache.doris.catalog.Catalog.getClusterIdAndRole(Catalog.java:903)     at org.apache.doris.catalog.Catalog.initialize(Catalog.java:805)     at org.apache.doris.PaloFe.start(PaloFe.java:125)     at org.apache.doris.PaloFe.main(PaloFe.java:63)

解决方案:


删除 doris-meta目录下的所有目录及文件,修改 fe.conf 里面的 priority_networks,重启即可解决


Apache Doris 0.14.7 之前版本


针对 Doris 0.14.7 之前版本,出现元数据错误,将其他节点从集群中删除,在作为新的节点加入,可能会存在错误,加入不成功,同时会导致其他 FE 挂掉的情况,针对之前版本正确的做法请参考下面链接


Apache Doris fe元数据故障运维

相关文章
|
3月前
|
消息中间件 OLAP Kafka
Apache Doris 实时更新技术揭秘:为何在 OLAP 领域表现卓越?
Apache Doris 为何在 OLAP 领域表现卓越?凭借其主键模型、数据延迟、查询性能、并发处理、易用性等多方面特性的表现,在分析领域展现了独特的实时更新能力。
366 9
|
2月前
|
存储 自然语言处理 分布式计算
Apache Doris 3.1 正式发布:半结构化分析全面升级,湖仓一体能力再跃新高
Apache Doris 3.1 正式发布!全面升级半结构化分析,支持 VARIANT 稀疏列与模板化 Schema,提升湖仓一体能力,增强 Iceberg/Paimon 集成,优化存储引擎与查询性能,助力高效数据分析。
476 4
Apache Doris 3.1 正式发布:半结构化分析全面升级,湖仓一体能力再跃新高
|
2月前
|
SQL 人工智能 数据挖掘
Apache Doris 4.0 AI 能力揭秘(二):为企业级应用而生的 AI 函数设计与实践
Apache Doris 4.0 原生集成 LLM 函数,将大语言模型能力深度融入 SQL 引擎,实现文本处理智能化与数据分析一体化。通过十大函数,支持智能客服、内容分析、金融风控等场景,提升实时决策效率。采用资源池化管理,保障数据一致性,降低传输开销,毫秒级完成 AI 分析。结合缓存复用、并行执行与权限控制,兼顾性能、成本与安全,推动数据库向 AI 原生演进。
282 0
Apache Doris 4.0 AI 能力揭秘(二):为企业级应用而生的 AI 函数设计与实践
|
3月前
|
存储 分布式计算 Apache
湖仓一体:小米集团基于 Apache Doris + Apache Paimon 实现 6 倍性能飞跃
小米通过将 Apache Doris(数据库)与 Apache Paimon(数据湖)深度融合,不仅解决了数据湖分析的性能瓶颈,更实现了 “1+1>2” 的协同效应。在这些实践下,小米在湖仓数据分析场景下获得了可观的业务收益。
782 9
湖仓一体:小米集团基于 Apache Doris + Apache Paimon 实现 6 倍性能飞跃
|
3月前
|
人工智能 运维 监控
智能运维与数据治理:基于 Apache Doris 的 Data Agent 解决方案
本文基于 Apache Doris 数据运维治理 Agent 展开讨论,如何让 AI 成为 Doris 数据运维工程师和数据治理专家的智能助手,并在某些场景下实现对人工操作的全面替代。这种变革不仅仅是技术层面的进步,更是数据运维治理思维方式的根本性转变:从“被动响应”到“主动预防”,从“人工判断”到“智能决策”,从“孤立处理”到“协同治理”。
616 11
智能运维与数据治理:基于 Apache Doris 的 Data Agent 解决方案
|
3月前
|
SQL 存储 JSON
Apache Doris 2.1.10 版本正式发布
亲爱的社区小伙伴们,Apache Doris 2.1.10 版本已正式发布。2.1.10 版本对湖仓一体、半结构化数据类型、查询优化器、执行引擎、存储管理进行了若干改进优化。欢迎大家下载使用。
232 5
|
3月前
|
人工智能 自然语言处理 数据挖掘
Apache Doris 4.0 AI 能力揭秘(一):AI 函数之 LLM 函数介绍
在即将发布的 Apache Doris 4.0 版本中,我们正式引入了一系列 LLM 函数,将前沿的 AI 能力与日常的数据分析相结合,无论是精准提取文本信息,还是对评论进行情感分类,亦或生成精炼的文本摘要,皆可在数据库内部无缝完成。
272 0
Apache Doris 4.0 AI 能力揭秘(一):AI 函数之 LLM 函数介绍
|
1月前
|
人工智能 数据处理 API
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
Apache Flink Agents 是由阿里云、Ververica、Confluent 与 LinkedIn 联合推出的开源子项目,旨在基于 Flink 构建可扩展、事件驱动的生产级 AI 智能体框架,实现数据与智能的实时融合。
330 6
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
|
存储 Cloud Native 数据处理
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
本文整理自阿里云资深技术专家、Apache Flink PMC 成员梅源在 Flink Forward Asia 新加坡 2025上的分享,深入解析 Flink 状态管理系统的发展历程,从核心设计到 Flink 2.0 存算分离架构,并展望未来基于流批一体的通用增量计算方向。
286 0
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
|
3月前
|
SQL 人工智能 数据挖掘
Apache Flink:从实时数据分析到实时AI
Apache Flink 是实时数据处理领域的核心技术,历经十年发展,已从学术项目成长为实时计算的事实标准。它在现代数据架构中发挥着关键作用,支持实时数据分析、湖仓集成及实时 AI 应用。随着 Flink 2.0 的发布,其在流式湖仓、AI 驱动决策等方面展现出强大潜力,正推动企业迈向智能化、实时化的新阶段。
494 9
Apache Flink:从实时数据分析到实时AI

推荐镜像

更多