StarRocks元数据无法合并

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
实时计算 Flink 版,5000CU*H 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
简介: StarRocks版本在3.1.4及以下,并且使用了metadata_journal_skip_bad_journal_ids来跳过某个异常的journal,会导致FE元数据无法合并。

一、先说结论

如果您的StarRocks版本在3.1.4及以下,并且使用了metadata_journal_skip_bad_journal_ids来跳过某个异常的journal,结果之后就出现了FE的元数据无法进行Checkpoint的现象,那么选择升级版本到3.1.4以上,就可以解决。

二、背景

已经平稳运行了几个月的StarRocks集群突然奔溃,在恢复过程中,发现其元数据从5月16号之后一直没有进行过合并,导致BDB文件非常多,其恢复时间达到了将近2小时。

现象:

  1. 查看FE的meta/image下面的image文件的生成时间,发现为2024.5.16。
  2. 查询FE的meta/bdb目录下的.jdb文件数量的数量到达了8000多个,大小到了81G。
  3. 每次FE恢复元数据重放需要将近2小时小时。

三、排查原因

通过现象已经明确了其没有做Checkpoint操作,导致image文件一直没有更新,那么首先想到两个可能:

一是由于某些原因一直没有触发元数据的CheckPoint操作。

二是进行了CheckPoint的操作,但是由于某些原因,Checkpoint操作一直无法成功。

于是准备在日志中找相关的佐证。于是开始查询查看源码,查看进行Checkpoint操作的类Checkpoint.java(路径:fe/fe-core/src/main/java/com/starrocks/leader/Checkpoint.java),从下面的源码中可以看出,在replayAndGenerateGlobalStateMgrImage方法中,可以看到进行Checkpoint操作时其打印了相关日志,于是在fe的相关日志中查询是否输出了这些日志信息,根据其是否出现,可以判定是否做了Checkpoint操作,并且Checkpoint操作是否成功。

private boolean replayAndGenerateGlobalStateMgrImage(long logVersion) {
   
    assert belongToGlobalStateMgr;
    long replayedJournalId = -1;
    // generate new image file
    LOG.info("begin to generate new image: image.{}", logVersion);
    globalStateMgr = GlobalStateMgr.getCurrentState();
    globalStateMgr.setJournal(journal);
    try {
   
        globalStateMgr.loadImage(imageDir);
        globalStateMgr.replayJournal(logVersion);
        globalStateMgr.clearExpiredJobs();
        globalStateMgr.saveImage();
        replayedJournalId = globalStateMgr.getReplayedJournalId();
        if (MetricRepo.hasInit) {
   
            MetricRepo.COUNTER_IMAGE_WRITE.increase(1L);
        }
        GlobalStateMgr.getServingState().setImageJournalId(logVersion);
        LOG.info("checkpoint finished save image.{}", replayedJournalId);
        return true;
    } catch (Exception e) {
   
        LOG.error("Exception when generate new image file", e);
        return false;
    } finally {
   
        // destroy checkpoint globalStateMgr, reclaim memory
        globalStateMgr = null;
        GlobalStateMgr.destroyCheckpoint();
    }
}

因为个人主观觉得Checkpoint失败的可能性比较大,因此开始在fe的warn日志中执行下列语句检索相关的异常,

cat fe.warn.log | grep 'Exception when generate new image file'

可以看到在fe日志中出现了大量的Checkpoint操作失败的相关日志信息。

由以上日志再配合源码,可以发现其触发了Checkpoint操作,但是Checkpoint过程中出现了异常,导致CheckPoint过程失败,也就造成了整个image一直没有更新。继而继续查询日志,找失败的原因,在该日志信息的后面可以看到其报错信息,其信息如下:

基于上面的操作,已经得到了出现Checkpoint失败的原因,也就是得到的journal id和期望值不一致。

记录一个Linux的查询文件命令

由于StarRocks在恢复期间,整个日志文件非常的大,而且刷新很快,通过tail more等看起来非常耗时,因此百度之后发现如下两个命令配合,可以非常的方便定位异常点:

cat -n 文件 | grep '异常信息' 这个命令,可以查询出整个文件中出现异常的行,并且显示行号。

sed -n '开始行号,读取行数p' 文件 这个命令,可以从文件的某一行开始向下读取多少行。

四、解决过程与原理分析

基于上面找到的Checkpoint失败的原因,首先在高于3.1.4版本的各个版本的发布信息中查询,没有发现相关问题修复的bugfix记录。

然后在StarRocks中文论坛中进行相关的检索,虽然有相关的问题,但是都不太一致,其中最相近的一个帖子为:

无法生成image文件,fe重启后元数据还原, 其中提到了通过dump操作进行恢复,但是查询StarRocks相关的文档之后,并没有发现其中有相关操作的描述。

5.png

然后遇事不决翻源码,查看最近和Checkpoint相关的代码不是是否出现了变更,跟踪相关部分的源码发现在GlobalStateMgr.java(fe/fe-core/src/main/java/com/starrocks/server/GlobalStateMgr.java)类中的replayJournalInner方法,最近进行了一次bugfix,查看这次bugfix的问题。

本次bugfix操作的说明如下:

If metadata_journal_skip_bad_journal_ids is configured, and replay of journal failed on EditLog.loadJournal, the cursor will ignore the next journal by mistake, because the bad log data has been read and cursor is already on the next journal. So the next data should only be ignored when failure happens in cursor.next().

可以看到这个异常和使用过 metadata_journal_skip_bad_journal_ids 这个配置有关,回想5月16那天是否对StarRocks进行过相关操作。

5月16号那天StarRocks异常崩溃,在重启恢复过程中,出现了某一个journal无法加载的错误(got interrupt exception or inconsistent exception when replay journal 447554621 wii exit.),导致一直无法恢复,当时通过查询StarRocks中文论坛,找到了一篇如下的帖子:3.1.5 存算分离集群FE 宕机后没法启动, 其中提到了配置 metadata_journal_skip_bad_journal_ids 跳过该journal,当时采用了这个操作,跳过了那个journal,结合目前来看,极大可能就是这个配置导致了FE无法进行Checkpoint.

在来分析本次bugfix到底干了啥,本次bugfix的源码变更地方如下:

可以发现,其就是在获取和或加载某个journal失败的时候,调用了cursor.skipNext(),查看这个具体代表的含义:在其实现类BDBJEJournal.java(fe/fe-core/src/main/java/com/starrocks/journal/bdbje/BDBJEJournal.java)中,其实现如下:

public void skipNext() {
   
    LOG.error("!!! DANGER: CURSOR SKIP {} !!!", nextKey);
    nextKey++;
}

再看具体报错should replay to 539780547 but actual replayed journal id is 539780546的地方源码,其在

GlobalStateMgr.java(fe/fe-core/src/main/java/com/starrocks/server/GlobalStateMgr.java)中的replayJournal方法中,其实现如下:

public void replayJournal(long toJournalId) throws JournalException {
   
    if (toJournalId <= replayedJournalId.get()) {
   
        LOG.info("skip replay journal because {} <= {}", toJournalId, 
                 replayedJournalId.get());
        return;
    }

    long startJournalId = replayedJournalId.get() + 1;
    long replayStartTime = System.currentTimeMillis();
    LOG.info("start to replay journal from {} to {}", startJournalId, toJournalId);

    JournalCursor cursor = null;
    try {
   
        cursor = journal.read(startJournalId, toJournalId);
        replayJournalInner(cursor, false);
    } catch (InterruptedException | JournalInconsistentException e) {
   
        LOG.warn("got interrupt exception or inconsistent exception when replay 
                 journal {
   }, will exit, ",replayedJournalId.get() + 1,e);
        // TODO exit gracefully
        Util.stdoutWithTime(e.getMessage());
        System.exit(-1);

    } finally {
   
        if (cursor != null) {
   
            cursor.close();
        }
    }

    // verify if all log is replayed
    if (toJournalId != replayedJournalId.get()) {
   
        throw new JournalException(String.format(
                "should replay to %d but actual replayed journal id is %d",
                toJournalId, replayedJournalId.get()));
    }

    streamLoadMgr.cancelUnDurableTaskAfterRestart();

    long replayInterval = System.currentTimeMillis() - replayStartTime;
    LOG.info("finish replay from {} to {} in {} msec", startJournalId, toJournalId, 
             replayInterval);
}

从报错新增可以看到,其判断条件是:toJournalId != replayedJournalId.get(), 那么解下来看这两个值是如何得到的。

在Checkpoint.java中可以看到toJournal来自于 journal.getFinalizedJournalId();通过其实现可以看到, 其取的是当前元数据中的最后的一个journalId。

public long getFinalizedJournalId() {
   
        List<Long> dbNames = bdbEnvironment.getDatabaseNamesWithPrefix(prefix);
        assert (dbNames != null);

        StringBuilder msg = new StringBuilder("database names: ");
        for (long name : dbNames) {
   
            msg.append(name).append(" ");
        }
        LOG.info(msg.toString());

        if (dbNames.size() < 2) {
   
            return 0;
        }

        return dbNames.get(dbNames.size() - 1) - 1;
    }

接下来再看整个日志的重放过程,replayedJournalId的初始值,就是image文件的后缀(在fe/fe-core/src/main/java/com/starrocks/persist/Storage.java的reload方法中可以看到),然后其在重放的过程中会不断+1,replayedJournalId更新的逻辑如下:

protected boolean replayJournalInner(JournalCursor cursor, boolean flowControl)
        throws JournalException, InterruptedException, JournalInconsistentException {
   
    long startReplayId = replayedJournalId.get();
    long startTime = System.currentTimeMillis();
    long lineCnt = 0;
    while (true) {
   
        JournalEntity entity = null;
        boolean readSucc = false;
        try {
   
            entity = cursor.next();

            // EOF or aggressive retry
            if (entity == null) {
   
                break;
            }

            readSucc = true;

            // apply
            EditLog.loadJournal(this, entity);
        } catch (Throwable e) {
   
            if (canSkipBadReplayedJournal(e)) {
   
                LOG.error("!!! DANGER: SKIP JOURNAL, id: {}, data: {} !!!",
                        replayedJournalId.incrementAndGet(), 
                          journalEntityToReadableString(entity), e);
                if (!readSucc) {
   
                    cursor.skipNext();
                }
                continue;
            }
            // handled in outer loop
            LOG.warn("catch exception when replaying journal, id: {}, data: {},",
             replayedJournalId.get() + 1, journalEntityToReadableString(entity), e);
            throw e;
        }

        replayedJournalId.incrementAndGet();
        LOG.debug("journal {} replayed.", replayedJournalId);

        if (feType != FrontendNodeType.LEADER) {
   
            journalObservable.notifyObservers(replayedJournalId.get());
        }
        if (MetricRepo.hasInit) {
   
            // Metric repo may not init after this replay thread start
            MetricRepo.COUNTER_EDIT_LOG_READ.increase(1L);
        }

        if (flowControl) {
   
            // cost too much time
            long cost = System.currentTimeMillis() - startTime;
            if (cost > REPLAYER_MAX_MS_PER_LOOP) {
   
                LOG.warn("replay journal cost too much time: {} replayedJournalId: {}",
                         cost, replayedJournalId);
                break;
            }
            // consume too much lines
            lineCnt += 1;
            if (lineCnt > REPLAYER_MAX_LOGS_PER_LOOP) {
   
                LOG.warn("replay too many journals: lineCnt {}, replayedJournalId: {}",
                         lineCnt, replayedJournalId);
                break;
            }
        }

    }
    if (replayedJournalId.get() - startReplayId > 0) {
   
        LOG.info("replayed journal from {} - {}", startReplayId, replayedJournalId);
        return true;
    }
    return false;
}

分析以上代码:其在while循环中不断读取journal,二而且通过replayedJournalId.incrementAndGet()不断刷新其值。

可以发现在修改前后的不同点

  • 修改前:不管的读取还是加载节点异常,其值都加1,而且如果某个失败,并且在 metadata_journal_skip_bad_journal_ids 配置了可以跳过,那么循环会继续,但是游标都会+1.
  • 修改后:加了判断,只有在日志加载中失败,游标才会+1,如果是读取成功,但是加载失败并且又被跳过,则其游标不会+1.

由此,豁然开朗,因为某个journal在EditLog加载过程中失败了,并且这个journal又因为被配置在了metadata_journal_skip_bad_journal_ids中,因此这个错误被被跳过,但是按照修改之前的代码,游标还是+1,跳过了下一个journal,导致replayedJournal的值少自增了一次,导致其值比正常的小了1。

由此,我们就确定了这哥bugfix确实解决了这个问题,因此我们的解决方案就是升级版本。

五、结果

查看该bugfix合并进入3.1相关分支的时间,发现其为2023.11.9,目前出问题的版本为3.1.4,其发布时间为2023.11.2,确定这个bugfix没有被合并进入, 于是选择进行升级,将其升级到了3.2.13.

经过5个小时左右的升级恢复,成功生成了新的image文件,BDB文件也从原先的8000多个讲到了80多个。

六、参考

整个过程中,收集到的一些相关参考资料

  1. metadata_journal_skip_bad_journal_ids:https://forum.mirrorship.cn/t/topic/10178
  2. 无法生成image文件,fe重启后元数据还原: https://forum.mirrorship.cn/t/topic/7774
  3. bugfix:https://github.com/StarRocks/starrocks/pull/33839
  4. 元数据dump相关(来自Doris,StarRocks未查询到):https://cdnd.selectdb.com/zh-CN/docs/admin-manual/maint-monitor/metadata-operation?_highlight=bdb#%E6%9F%A5%E7%9C%8B-bdbje-%E4%B8%AD%E7%9A%84%E6%95%B0%E6%8D%AE
  5. 元数据管理源码分析:https://xie.infoq.cn/article/6f2f9f56916f0eb2fdb6b001a
相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
SQL 流计算
对于Flink CDC,当源表的数据被删除后,可以通过以下方法在结果表中同步删除
对于Flink CDC,当源表的数据被删除后,可以通过以下方法在结果表中同步删除
976 1
|
2月前
|
存储 算法 NoSQL
大数据-138 - ClickHouse 集群 表引擎详解3 - MergeTree 存储结构 数据标记 分区 索引 标记 压缩协同
大数据-138 - ClickHouse 集群 表引擎详解3 - MergeTree 存储结构 数据标记 分区 索引 标记 压缩协同
46 0
|
5月前
|
存储 Java 分布式数据库
HBase构建图片视频数据的统一存储检索
HBase构建图片视频数据的统一存储检索
|
6月前
|
SQL 分布式计算 安全
ClickHouse(22)ClickHouse集成HDFS表引擎详细解析
ClickHouse的HDFS引擎允许直接在Hadoop生态系统内管理数据。使用`ENGINE=HDFS(URI, format)`,其中URI指定HDFS路径,format定义文件格式(如TSV、CSV或ORC)。表可读写,但不支持`ALTER`、`SELECT...SAMPLE`、索引和复制操作。通配符可用于文件路径,如`*`、`?`和范围`{N..M}`。Kerberos认证可配置。虚拟列包括文件路径 `_path` 和文件名 `_file`。有关更多信息,参见相关文章系列。
175 0
|
7月前
|
关系型数据库 MySQL 数据处理
实时计算 Flink版产品使用合集之怎样导数据使starrocks支持主键模型delete的配置
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
7月前
|
SQL 监控 HIVE
Hive 全量表、增量表、拉链表 解析
Hive 全量表、增量表、拉链表 解析
813 0
|
7月前
|
存储 Oracle 关系型数据库
删除了表中 2023之前的数据 flink cdc 里面会删除吗?
删除了表中 2023之前的数据 flink cdc 里面会删除吗?
122 0
|
SQL 分布式计算 DataWorks
MaxCompute元数据使用实践--作业统计
通过MaxCompute租户级别Information Schema的“TASKS_HISTORY”视图可以统计查看MaxCompute计算作业的元数据信息,方便您进行作业审计以及各类统计,指导作业性能、成本优化。
1674 0
|
SQL 分布式计算 大数据
MaxCompute元数据使用实践 -- 数据下载审计
通过MaxCompute租户级别Information Schema的“TUNNELS_HISTORY”视图可以统计查看通过Tunnel通道进行数据上传下载的相关详细信息,方便您进行数据流转的审计排查。
802 0
|
NoSQL 安全 数据管理
元数据是什么?怎么管?
元数据是什么?怎么管?