闲鱼社区如何快准稳的完成无缝数据迁移

简介: 用户无感知,数据无差异,方案可回滚,异常可监控

作者:闲鱼技术——长明

背景:

在内容社区中,内容标签用来辅助说明内容,内容标签对内容分发和理解具有重要作用,能够帮助内容社区将对的内容分发到对的人。目前闲鱼会玩社区的标签分为分类和属性标签两种,两种标签的用法不同,但是目前二者都是存在于同一个标签系统中,目前会有如下问题:

  • 易出错,靠人为去辨别分类标和属性标,难免会出错,出现漏打,错打
  • 难拓展,属性和分类属于不同的业务域,有各自独有的特性,现状无法让二者独立拓展

为了解决以上问题,现在要将原标签系统拆分为分类系统和属性系统,具体来说,会将属性标从原标签系统中拆分到属性系统,然后将原标签系统作为新分类系统。整个过程,不仅需要迁移底层数据,还需要将属性服务从原标签系统迁移到新属性系统。

image

现状:

如下图所示,闲鱼会玩社区对属性标签依赖非常之多,除了自身的业务系统之外,还有图中标蓝的算法、搜索、数据等也会依赖。迁移过程中需要保证这些上层依赖不受影响。另外,业务方希望能够尽早启用属性系统,尽快提高打标效率。总结起来,迁移过程中面临了如下的挑战。

  • 快,短时间内迁移完成,尽早使用新属性系统
  • 稳,依赖众多,在迁移时需要保证属性服务可用,不影响上层业务,用户无感知
  • 准,迁移最最最基本的要求就是要保证数据正确

image

迁移方案:

我们按照影响面从小到大的顺序,制定了 1.底层存储同步、2.建设隔离层、3.业务读写迁移、4.依赖迁移、5.启用新属性系统共五步。其中依赖是指搜索、算法和数据,这些依赖影响面较广,迁移需要更加慎重,需要有己方业务迁移正确这个前提作为保证。因此依赖迁移需要单独列为一部分,且放在己方业务迁移完成后进行。迁移中的每一步迁移需要保证上一步正确,且出现问题,每一步都可以回滚回上一个正确状态。为了保证数据的一致性,我们全程都有数据校对服务。

image

迁移过程

1. 存储迁移

整个迁移过程,我们首先先从底层存储开始同步,为了保证原标签系统和属性系统中的属性标签相同。实现这个目标需要从两方面做起,一方面是全量同步,就是将全部数据同步一遍。一方面是实时增量同步,一旦有新的属性标签被写入原标签系统中,那么属性系统中也要同步一份。这个套路比较固定。下面是我们全量同步的数据处理过程。

image

其中同步任务我们直接使用了 阿里云 提供的 scheduleX 分布式任务工具。全量同步过程中要注意,控制同步速率、配置告警、做好异常记录和完成进度记录。控制同步速率是需要避免把依赖服务系统打挂,影响其他正常业务。配置告警是为了及时发现异常,及时排查。其中异常记录是为了排查问题的,必然要记录的。完成进度记录也是非常重要的,一旦出现问题,修复完了要继续时,可以直接从上次记录的同步位点开始同步。

讲完了全量同步,下面讲一下实时增量拆分的过程,数据流过程如下图所示。即一旦触发了原标签系统变更,会实时将属性标的变化同步到属性系统。

image

2. 隔离层建设

屏蔽迁移细节

做了存储迁移,那么现在属性系统和原标签系统中的属性标相同了,下面可以做业务读迁移了。业务迁移,这是迁移过程中工作量最大最复杂的地方,需要梳理清楚依赖很多。经过梳理发现,多个应用多个业务场景都在使用原标签系统。假如逐个迁移改造,一方面重复性工作比较多,需要重复验证的功能点多,另一方面,迁移细节无法统一管理,一旦有问题,需要逐个应用修改。所以在做业务迁移之前,我们做了一件事情,就是将散落在多个应用的读写原标签系统的操作都收归到了一个 jar 包中,然后在该 jar 中统一控制读写切换。jar 包相当于一个隔离层,隔离了上层业务和属性标签的存储逻辑。这样上层业务系统不必关心属性标是从原标签系统读取的抑或是从属性系统中读取的,只管从隔离层提供的方法中读取即可。有了隔离层统一管理,可以同时统一迁移,减少不必要的重复工作。具体的变化从 a 图变换到 b 图。

image

接口适配

由于分类系统和属性系统两种标签的业务语义和功能不同,内容中台对这两个系统的领域建模也不同,对应的数据服务接口能力也不同,为了让上层业务对此无感知,我们保持原服务接口不变,在隔离层做了对于分类系统和属性系统两个系统的适配。

3. 业务读写迁移

读迁移

前置工作做完之后,我们开始具体的读迁移。读迁移是最好做的,可以先按照比例切流,逐步放量从属性系统中读取属性标,一旦发现有问题,那么直接将流量切回读原标签系统 ,没有问题,就直至全量。

image

写迁移

写迁移是很难一刀切的,一方面,即使是经过了梳理,还是可能会有遗漏的地方。另一方面,还有部分依赖方的写入(比如内容中台的标签写入)不在我们这边,暂时无法迁移。假如己方业务的写迁移了,那么己方业务只会写到属性系统 ,而没迁移的依赖方只会写到原标签系统。这会造成原标签系统和属性系统的属性标数据不一致。这导致两方面的问题,一方面,影响依赖方读,依赖方读的还是原标签系统,读取不到属性系统上的属性标。另一方面,两方不一致的话,如果属性系统出现问题,那么写无法即时回滚到原标签系统。

因此在迁移过程中,还需要保证原标签系统和属性系统上的属性标时刻是相同的,在存储拆分中,已经有了 原标签系统-> 属性系统的同步链路,现在还需要将只写入属性系统的属性标同步回原标签系统。

那么现在有 原标签系统->属性系统 和 属性系统 -> 原标签系统 两条同步链路。如果不做任何控制的话,明显会出现同步死循环原标签系统->属性系统->原标签系统。解决这种双向同步死循环的一般办法是加标志,用标志标识这次数据变更是源自哪一方,当发现自己的更新消息回流到了自己这里,那么就不再更新,这样就切断了更新的死循环。

image

4. 依赖方迁移

当己方业务能够保证无误的时候,那么可以做依赖迁移了。依赖方一般为算法、搜索和数据等。链路分为实时链路和离线链路。对于实时链路,这部分工作因为有了前面的业务读迁移,可以复用;对于离线链路,提供好离线数据表给到相关依赖方,让他们按时迁移完成即可。

5. 启用新属性系统

依赖方也迁移完成后,经过一段时间的观察,没有问题,便可以使用新的属性标签系统来打标了。启用新系统打标的之后,便不再需要 原标签系统->属性系统 的同步链路了,可以停止。后续再观察一段时间后,确认使用属性系统无问题后,便不再有将读写切回原标签系统的必要了,可以再切断 属性系统 -> 原标签系统 的同步链路,至此迁移完成。

6. 数据校对任务

在整个同步过程中,还要有对账任务来实时查看同步的数据是否正确。如果发现数据不正确,要及时找到原因,修正,然后做好数据矫正。

image

总结

本次迁移排除依赖方迁移所用时间外,共计两周。

  • 迁移过程中属性服务正常。零客诉舆情。
  • 迁移后,数据零差异。

最后捋一下本次迁移中的经验点

  • 迁移过程中,如果服务依赖众多,可以用隔离层来隔离依赖对迁移的感知。
  • 双写,过程中避免出现同步死循环,可以通过给更新消息加标志避免。
相关文章
|
4月前
|
存储 容灾 Cloud Native
应用多活技术问题之支撑应用构建多活架构能力如何解决
应用多活技术问题之支撑应用构建多活架构能力如何解决
|
5月前
|
小程序
跨端技术问题之线下集成研发有哪些关键策略
跨端技术问题之线下集成研发有哪些关键策略
|
SQL 运维 Oracle
云上“升舱”,升级到速度更快,功能更全面,性价比更高的数仓平台
阿里云AnalyticDB“升舱”活动致力于帮助您将线下或自建的数仓全面迁移至云原生架构之上,享受全托管的使用体验;为企业构建数据平台带来速度更快,功能更全面,性价比更高的数据平台
云上“升舱”,升级到速度更快,功能更全面,性价比更高的数仓平台
|
Cloud Native 数据库
《云原生演进趋势下传统数据库升级实践-v1.3》电子版地址
云原生演进趋势下传统数据库升级实践-v1.3
90 0
《云原生演进趋势下传统数据库升级实践-v1.3》电子版地址
|
Cloud Native 数据库
今日14点开播!漫谈传统数仓向云原生数仓的升级与实践
本期将从技术与实践视角来谈谈如何一步升舱。下午14点来一起聊聊吧。
375 0
今日14点开播!漫谈传统数仓向云原生数仓的升级与实践
|
Kubernetes Cloud Native 持续交付
KubeMeet 直播 | 现场直击大规模集群、混合环境下的云原生应用交付难题
2022 年 1 月 15 日 由云原生基金会与阿里云同城会联合主办的 KubeMeet 「云原生应用交付与管理」专场开发者沙龙将在成都举办,同时,线上直播预约已开启,快参与到本次 KubeMeet 中吧!
KubeMeet 直播 | 现场直击大规模集群、混合环境下的云原生应用交付难题
|
消息中间件 Cloud Native 数据库
端云互联 3.0 击破云原生开发的痛点
今天下午三点整开播,阿里云高级研发工程师在线解密云原生下如何高效开发!
1968 9
端云互联 3.0 击破云原生开发的痛点
|
人工智能 运维 Cloud Native
抛弃传统集中式架构 江西农信携手阿里云实现业务系统平滑迁移上云
抛弃传统集中式架构 江西农信携手阿里云实现业务系统平滑迁移上云
抛弃传统集中式架构 江西农信携手阿里云实现业务系统平滑迁移上云
|
监控 安全 Dubbo
闲鱼应用迁移实践
闲鱼应用迁移实践
307 0
闲鱼应用迁移实践