粉丝关系链,10亿数据,如何设计?

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 关系链主要分为两类,弱好友关系与强好友关系,两类都有典型的互联网产品应用。

image.png

继续答星球水友提问,大数据量,高并发量,好友关系链、粉丝关系链要如何设计?
什么是关系链业务?关系链主要分为两类,弱好友关系强好友关系,两类都有典型的互联网产品应用。 弱好友关系的建立,不需要双方彼此同意

  • 用户A关注用户B,不需要用户B同意,此时用户A与用户B为弱好友关系,对A而言,暂且理解为“关注”;
  • 用户B关注用户A,也不需要用户A同意,此时用户A与用户B也为弱好友关系,对A而言,暂且理解为“粉丝”;
idol与fans这类微博粉丝关系链,是一个典型的弱好友关系应用。   强好友关系的建立,需要好友关系双方彼此同意
  • 用户A请求添加用户B为好友,用户B同意,此时用户A与用户B则互为强好友关系,即A是B的好友,B也是A的好友;
好友关系链,是一个典型的强好友关系应用。
image.png

好友中心是一个典型的多对多业务:

  • 一个用户可以添加多个好友

  • 也可以被多个好友添加


其典型架构为:
image.png

friend-service:好友中心服务,对调用者提供友好的RPC接口 db:对好友数据进行存储   弱好友关系,存储层应该如何实现? 通过弱好友关系业务分析,很容易了解到,其核心元数据为:
  • guanzhu(uid, guanzhu_uid);
  • fensi(uid, fensi_uid);
其中:
  • guanzhu表,用户记录uid所有关注用户guanzhu_uid
  • fensi表,用来记录uid所有粉丝用户fensi_uid
  需要强调的是, 一条弱关系的产生,会产生两条记录 ,一条关注记录,一条粉丝记录。   例如:用户A(uid=1)关注了用户B(uid=2),A多关注了一个用户,B多了一个粉丝,于是:
  • guanzhu表要插入{1, 2}这一条记录,1关注了2
  • fensi表要插入{2, 1}这一条记录,2粉了1
  如何查询一个用户关注了谁? 回答:在guanzhu的uid上建立索引:

select from guanzhu where uid=1;

即可得到结果,1关注了2。   如何查询一个用户粉了谁? 回答:在fensi的uid上建立索引:

select from fensi where uid=2;

即可得到结果,2粉了1。  

强好友关系,存储层应该如何实现?


方案一
通过强好友关系业务分析,很容易了解到,其核心元数据为:
  • friend(uid1, uid2);
其中:
  • uid1,强好友关系中一方的uid
  • uid2,强好友关系中另一方的uid
  uid=1的用户添加了uid=2的用户,双方都同意加彼此为好友,这个强好友关系,在数据库中应该插入记录{1, 2}还是记录{2,1}呢? 回答:都可以。为了避免歧义,可以人为约定,插入记录时uid1的值必须小于uid2。   例如:有uid=1,2,3三个用户,他们互为强好友关系,那边数据库中可能是这样的三条记录 {1, 2} {2, 3} {1, 3}   如何查询一个用户的好友呢? 回答:假设要查询uid=2的所有好友,只需在uid1和uid2上建立索引,然后:

select from friend where uid1=2

union

select from friend where uid2=2

即可得到结果。
  方案二 强好友关系是弱好友关系的一个特例 A和B必须互为关注关系(也可以说,同时互为粉丝关系),即也可以使用关注表和粉丝表来实现:
  • guanzhu(uid, guanzhu_uid);
  • fensi(uid, fensi_uid);
  例如:用户A(uid=1)和用户B(uid=2)为强好友关系,即相互关注: 用户A(uid=1)关注了用户B(uid=2),A多关注了一个用户,B多了一个粉丝,于是:
  • guanzhu表要插入{1, 2}这一条记录
  • fensi表要插入{2, 1}这一条记录
  同时,用户B(uid=2)也关注了用户A(uid=1),B多关注了一个用户,A多了一个粉丝,于是:
  • guanzhu表要插入{2, 1}这一条记录
  • fensi表要插入{1, 2}这一条记录

两种实现,各有什么优缺点? 对于强好友关系的两类实现:
  • friend(uid1, uid2)表
  • 数据冗余guanzhu表与fensi表(后文称正表T1与反表T2)

在数据量小时,看似无差异, 但数据量大时,数据冗余的优势就体现出来了
  • friend表,数据量大时,如果使用uid1来分库,那么uid2上的查询就需要遍历多库
  • 正表T1与反表T2通过数据冗余来实现好友关系,{1,2}{2,1}分别存在于两表中,故两个表都使用uid来分库,均只需要进行一次查询,就能找到对应的关注与粉丝,而不需要多个库扫描
画外音:假如有10亿关系链,必须水平切分。   数据冗余,是多对多关系,在数据量大时,数据水平切分的常用实践   如何进行数据冗余? 接下来的问题转化为,好友中心服务如何来进行数据冗余,常见有三种方法。   方法一:服务同步冗余
image.png

顾名思义,由好友中心服务同步写冗余数据,如上图1-4流程:

  • 业务方调用服务,新增数据
  • 服务先插入T1数据
  • 服务再插入T2数据
  • 服务返回业务方新增数据成功


优点:
  • 不复杂,服务层由单次写,变两次写
  • 数据一致性相对较高(因为双写成功才返回)


缺点:
  • 请求的处理时间增加(要插入次,时间加倍)
  • 数据仍可能不一致,例如第二步写入T1完成后服务重启,则数据不会写入T2
  如果系统对处理时间比较敏感,引出常用的第二种方案。


方法二:服务异步冗余
image.png

数据的双写并不再由好友中心服务来完成,服务层异步发出一个消息,通过消息总线发送给一个专门的数据复制服务来写入冗余数据,如上图1-6流程:

  • 业务方调用服务,新增数据
  • 服务先插入T1数据
  • 服务向消息总线发送一个异步消息(发出即可,不用等返回,通常很快就能完成)
  • 服务返回业务方新增数据成功
  • 消息总线将消息投递给数据同步中心
  • 数据同步中心插入T2数据


优点:
  • 请求处理时间短(只插入1次)


缺点:
  • 系统的复杂性增加了,多引入了一个组件(消息总线)和一个服务(专用的数据复制服务)
  • 因为返回业务线数据插入成功时,数据还不一定插入到T2中,因此数据有一个不一致时间窗口(这个窗口很短,最终是一致的)
  • 在消息总线丢失消息时,冗余表数据会不一致
  如果想解除“数据冗余”对系统的耦合,引出常用的第三种方案。


方法三:线下异步冗余
image.png

数据的双写不再由好友中心服务来完成,而是由线下的一个服务或者任务来完成,如上图1-6流程:

  • 业务方调用服务,新增数据
  • 服务先插入T1数据
  • 服务返回业务方新增数据成功
  • 数据会被写入到数据库的log中
  • 线下服务或者任务读取数据库的log
  • 线下服务或者任务插入T2数据


优点:
  • 数据双写与业务完全解耦
  • 请求处理时间短(只插入1次)


缺点:
  • 返回业务线数据插入成功时,数据还不一定插入到T2中,因此数据有一个不一致时间窗口(这个窗口很短,最终是一致的)
  • 数据的一致性依赖于线下服务或者任务的可靠性
  上述三种方案各有优缺点,可以结合实际情况选取。   数据冗余固然能够解决多对多关系的数据库水平切分问题,但又带来了新的问题,如何保证正表T1与反表T2的数据一致性呢?
从上面的讨论可以看到,不管哪种方案,因为 两步操作不能保证原子性 ,总有出现数据不一致的可能,高吞吐分布式事务是业内尚未解决的难题,此时的架构优化方向:最终一致性。并不是完全保证数据的实时一致,而是 尽早的发现不一致,并修复不一致   最终一致性,是高吞吐互联网业务一致性的常用实践。更具体的,保证数据最终一致性的常见方案有三种。   方法一:线下扫面正反冗余表全部数据
image.png

如上图所示,线下启动一个离线的扫描工具,不停的比对正表T1和反表T2,如果发现数据不一致,就进行补偿修复。


优点:
  • 比较简单,开发代价小
  • 线上服务无需修改,修复工具与线上服务解耦


缺点:
  • 扫描效率低,会扫描大量的“已经能够保证一致”的数据
  • 由于扫描的数据量大,扫描一轮的时间比较长,即数据如果不一致,不一致的时间窗口比较长
  有没有只扫描“可能存在不一致可能性”的数据,而不是每次扫描全部数据,以提高效率的优化方法呢?   方法二:线下扫描增量数据
image.png

每次只扫描增量的日志数据,就能够极大提高效率,缩短数据不一致的时间窗口,如上图1-4流程所示:

  • 写入正表T1
  • 第一步成功后,写入日志log1
  • 写入反表T2
  • 第二步成功后,写入日志log2
当然,我们还是需要一个离线的扫描工具,不停的比对日志log1和日志log2,如果发现数据不一致,就进行补偿修复


优点:
  • 虽比方法一复杂,但仍然是比较简单的
  • 数据扫描效率高,只扫描增量数据


缺点:
  • 线上服务略有修改(代价不高,多写了2条日志)
  • 虽然比方法一更实时,但时效性还是不高,不一致窗口取决于扫描的周期
  有没有实时检测一致性并进行修复的方法呢?   方法三:实时线上“消息对”检测
image.png

这次不是写日志了,而是向消息总线发送消息,如上图1-4流程所示:

  • 写入正表T1
  • 第一步成功后,发送消息msg1
  • 写入反表T2
  • 第二步成功后,发送消息msg2
这次不是需要一个周期扫描的离线工具了,而是一个实时订阅消息的服务不停的收消息。 假设正常情况下,msg1和msg2的接收时间应该在3s以内,如果检测服务在收到msg1后没有收到msg2,就尝试检测数据的一致性,不一致时进行补偿修复


优点:
  • 效率高
  • 实时性高


缺点:
  • 方案比较复杂,上线引入了消息总线这个组件
  • 线下多了一个订阅总线的检测服务
  however,技术方案本身就是一个投入产出比的折衷,可以根据业务对一致性的需求程度决定使用哪一种方法。   总结
  • 关系链业务是一个典型的多对多关系,又分为强好友与弱好友
  • 数据冗余是一个常见的多对多业务数据水平切分实践
  • 冗余数据的常见方案有三种         (1)服务同步冗余         (2)服务异步冗余         (3)线下异步冗余
  • 数据冗余会带来一致性问题,高吞吐互联网业务,要想完全保证事务一致性很难,常见的实践是最终一致性
  • 最终一致性的常见实践是,尽快找到不一致,并修复数据,常见方案有三种         (1)线下全量扫描法         (2)线下增量扫描法         (3)线上实时检测法


希望大家有所启示,思路比结论重要。

本文转自“架构师之路”公众号,58沈剑提供。

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
1月前
|
存储 缓存 NoSQL
京东面试:亿级黑名单 如何设计?亿级查重 呢?(答案含:布隆过滤器、布谷鸟过滤器)
尼恩,40岁的老架构师,近期在读者交流群中分享了几个大厂面试题及其解决方案。这些问题包括亿级数据查重、黑名单存储、电话号码判断、安全网址判断等。尼恩给出了三种解决方案:使用BitMap位图、BloomFilter布隆过滤器和CuckooFilter布谷鸟过滤器。这些方法不仅高效,还能显著提升面试表现。尼恩还建议大家系统化学习,刷题《尼恩Java面试宝典PDF》,并提供简历修改和面试辅导,帮助大家实现“offer自由”。更多技术资料和PDF可在公众号【技术自由圈】获取。
|
消息中间件 存储 Java
3000人群被字节内部技术图谱炸翻了,惊艳级实用
前几天晚上群里的消息炸翻了,我以为发生啥大事了。一看,一字节老哥秀了一把他们老大给组里配的技术图谱手册! 大家都求着来1套,我认真看了,基本覆盖了所有Java技术栈以及架构设计的方方面面。 确实很少见,够实在够精华,这套东西要是拿出去卖,少说也得一二百!
|
自然语言处理 搜索推荐 算法
亿级用户的平台是如何使用词嵌入来建立推荐系统的
亿级用户的平台是如何使用词嵌入来建立推荐系统的
146 0
亿级用户的平台是如何使用词嵌入来建立推荐系统的
|
搜索推荐
七大常见排序,你究竟懂几个?(上)(1)
七大常见排序,你究竟懂几个?(上)
116 0
七大常见排序,你究竟懂几个?(上)(1)
|
存储 JSON NoSQL
|
安全 Java API
全网最细 | 21张图带你领略集合的线程不安全
全网最细 | 21张图带你领略集合的线程不安全
144 0
全网最细 | 21张图带你领略集合的线程不安全
|
机器学习/深度学习 供应链 搜索推荐
如何实现卖家增长任务的AB实验
卖家增长任务的AB实验
452 0
如何实现卖家增长任务的AB实验
|
算法 搜索推荐 测试技术
为构建社交关系链手淘都做了啥?
互联网下半场的到来,用户的增长和留存是每一个平台需要深耕的方向,社交电商成为主流,手淘在构建社交关系链过程中经历了什么?做了什么?
1656 0
为构建社交关系链手淘都做了啥?
|
存储 安全 搜索推荐
推给我的广告都跟我最近看的内容有关系,怎么做到的?
互联网的商业模式,商业化变现不外乎后向收费的广告模式,以及面向最终消费者的前向收费模式。广告尤其是重头。就连淘宝天猫的模式本质上也是赚的广告的钱。那么,大数据在广告中是如何起作用的?
下一篇
DataWorks