优化Feed流遭遇拦路虎 是谁帮百度打破了“内存墙”?

简介: 优化Feed流遭遇拦路虎 是谁帮百度打破了“内存墙”?

Feed流的概念对很多人来说都很陌生,但在移动互联网时代几乎每个人的工作生活都离不开它。通俗讲,它就是一种普遍应用于各类社交和内容资讯类app,主攻信息、内容的聚合和推送的互联网服务方式。它能将你最感兴趣并且长期关注的内容推送给你,成为最懂你的信息助手。同时,基于智能化的自动聚合、精准推送信息的功能,它也成为了今天商户投放广告和实现更佳营销效果的重要渠道。

依托于出色的个性化应用体验,Feed流服务的用户数量和使用频度都在与日俱增,用户对其内容推送的精准度、时效性等需求也在随之不断提升,这就对支撑Feed流服务的平台性能、尤其是数据库性能构成了严峻的挑战,即便是相关领域的老牌玩家、身为全球 IT 和互联网行业的领先企业的百度,也需要对其进行持续的优化和革新。


1“成长的烦恼百度Feed流服务撞上“内存墙”


此前,大家在提及IT平台性能时,如果没有特指,基本都是对应其主要算力单元的性能表现,但为什么在Feed流服务中,数据库性能也会如此关键?

这一点,其实是由Feed流服务的本质及架构决定的,正如上文所说,它的主要功用就是要对各种信息和内容进行自动聚合和精准推送,而所有这些信息和内容都会以海量数据的型态在Feed流服务背后的数据库中进行存储,还需要进行尽可能高效地访问和处理,惟其如此才能实现迅捷和精准的推送结果。

图一、百度Feed-Cube示意图

因此不论是哪家企业的Feed流服务,它们基本都是围绕背后的核心数据库构建起来的。百度也是如此,它早在数年前就构建了Feed流服务所需的数据库Feed-Cube。而且从自身的业务状况出发,为满足数以亿计的用户规模、千万量级的并发服务,以及更低时延的数据处理性能,百度还在Feed-Cube构建之初就把它打造成了一个内存数据库,并采用了KVKey- Value,键值对)的存储结构。在这个结构中,Key值,以及Value值所在数据文件的存储偏移值都存放在哈希表中,而Value值则单独存放在不同的数据文件中。此外,所有哈希表和数据文件均存放在内存中,从而能充分借助内存的高速I/O能力来提供出色的读写性能和超低时延。

尽管拥有如此前瞻的架构设计,Feed- Cube还是会遇到挑战——虽然在每秒千万次查询的高并发和PB级海量数据存储环境下它的表现一直优异,但在百度Feed流服务规模持续扩展、数据规模也持续增长的情况下,它还是遇到了内存容量扩展跟不上数据存储需求发展的问题,或者说,撞上了“内存墙”的考验。

内存墙这个词,原本是用以描述内存与算力单元之间的技术发展差距所导致的性能瓶颈,而在大数据和AI时代数据处理需求更多走向实时化后,它也增添了容量层面的含义,即用户为了尽可能提升数据读写和处理的效率,不得不将更大体量的数据从存储中移到距算力更近、带宽和I/O性能更优的内存中,但内存容量扩展不易和成本过高的问题,却使得它难以承载更大体量的数据,这种情形,就像是内存在容量上也有了一层看不见摸不着,但又实实在在存在的围墙。

如果要问为何内存容量扩展难,成本也高?那就要谈到DRAM身上。作为目前内存普遍使用的介质,DRAM在单条服务器内存上的主流容量配置多是32GB或64GB,128GB少见且价格昂贵,任何人如果想使用DRAM内存来大幅扩展内存容量,那么就必须承担非常高昂的成本,而且花了大钱,最终可能还是难以实现自己想要达到的内存容量水准。

百度就曾经考虑过以堆DRAM的方式为Feed-Cube构建更大的内存池,但这一方面会使其TCO大幅抬升,另一方面,这种方式也依然跟不上Feed-Cube数据承载能力的发展要求。

在验证依靠DRAM难以突破内存墙后,百度还尝试使用性能不断提升的、基于非易失性存储(non-volatile memory,NVM)技术的存储设备,如 NVMe 固态盘来存储 Feed-Cube 中的数据文件和哈希表。但经测试发现,这一方案在QoS、IO 速度等方面都难以满足服务需求。


2 傲腾持久内存成破“墙”利器  兼顾性能、容量和成本收益


求助DRAMNVMe固态盘都不顺利,那么Feed-Cube突破内存墙的路径和方案到底在哪里呢?百度抱着寻求突破性方案的初衷,把眼光瞄向合作多年的伙伴英特尔,瞄向它意在颠覆传统内存-存储架构的傲腾持久内存。

图二、傲腾™持久内存在内存-存储层级中的位置及作用

傲腾持久内存进入百度视野的原因其实很简单,即它比较好的兼顾了现有DRAM内存和存储产品的优势,同时又不像它们那样有各自明显的不足之处——它凭借创新的介质,可提供接近DRAM的读写性能和访问时延、更接近固态盘的存储容量,并支持DRAM内存所不具备的数据持久性和更高价格容量比,以及NAND固态盘所无法比肩的耐用性。这使得它在多用户、高并发和大容量的场景下有着非常突出的优势,也特别适合用于扩展内存来承载更大体量、需要更高读写速度和时延来处理的数据。

有鉴于此,百度开始尝试使用傲腾持久内存来破解Feed-Cube面对的内存墙问题。其做法就是用持久内存来存储Feed-Cube中的数据文件部分,并仍用DRAM来存放哈希表。采用这一混合配置的目的,一方面是为了验证傲腾持久内存在 Feed-Cube 中的性能表现;另一方面,Feed- Cube 在查询 Value 值的过程中,读哈希表的次数要远大于读数据文件,因此先在数据文件部分进行替换,可以尽可能地减少对 Feed-Cube 性能的影响。

与此同步,百度还与英特尔合作,根据 Feed-Cube 应用场景的需求,在服务器 BIOS 中加入了对傲腾持久内存的支持驱动,还在百度自研Linux内核的基础上增添了相关的补丁,以求实现硬件、操作系统、内核等组件的全方位优化,进而充分释放整个系统的性能潜力。

经过这一系列操作后,百度就模拟了实际场景中可能出现的大并发访问压力,对纯 DRAM 内存模式与上述混合配置模式进行了对比测试。测试中,每秒查询次数(Query Per Second,QPS)设为 20 万次,每次访问需要查询 100 组 Key-Value 组,总访问压力为 2 千万级。结果显示,在此如此大的访问压力下,平均访问耗时仅上升约 24%(30 微秒),处理器消耗整机占比仅上升7%,性能波动也在百度可接受的范围内。而与此相对应的是,单服务器的 DRAM 内存使用量下降过半,这对于 Feed-Cube PB 级的存储容量而言,无疑可大大降低成本。

在这一成果的激励下,百度又进一步尝试将 Feed-Cube的哈希表及数据文件都存入傲腾™ 持久内存中,以每秒 50 万次查询(QPS)的访问压力进行测试,结果证明这一模式与只配置DRAM 内存的方案相比,平均时延仅上升约 9.66%,性能波动也在百度可接受的范围内。

图三、百度Feed-Cube内存硬件变化路径

经过这些探索和实践,百度最终验证了其 Feed 流服务的核心模块 Feed-Cube 从仅配置 DRAM 内存的模式,迁移至同时使用 DRAM 内存与英特尔® 傲腾持久内存的混合配置模式,再到全面依托英特尔® 傲腾持久内存模式的可行性。这一系列创新举措在大并发访问压力下的优异的性能表现以及符合百度预期的资源消耗,充分展示了傲腾持久内存在打破内存墙过程中发挥的关键作用。

3 打破内存墙 给行业数智转型带来的启示


毫无疑问,随着各行各业云化、数字化和智能化转型的加速,越来越多的大数据和AI应用的落地,大家不论是整体,还是个体都面临数据规模、数据维度和复杂性的大幅增长,加之用户对服务时效性等需求不断提升,所有相关的系统和应用不但对算力提出了更多样化和更为严苛的挑战,也要求内存-存储架构在性能和容量层面都能跟上算力和数据的演进趋势。如果我们再考虑到企业对低成本、高效率的无限追求,这一切就使得传统的通常增添DRAM来拓展内存容量的方式已几近成为历史,所有面临内存墙挑战的人,都需要像百度一样,必须要寻求变革性的技术、颠覆性的方案方能尽拂破墙而出,开启高效服务新篇章。

相关文章
|
2月前
|
存储 缓存 安全
C语言中的内存管理与优化技巧
C语言中的内存管理与优化技巧
38 0
|
4天前
|
存储 开发者 Python
优化Python代码中的内存占用:实用技巧与最佳实践
本文将介绍如何优化Python代码中的内存占用,通过实用技巧和最佳实践,有效减少内存消耗,提升代码性能和可扩展性。
|
1月前
|
缓存 算法 Java
Java内存管理:优化性能和避免内存泄漏的关键技巧
综上所述,通过合适的数据结构选择、资源释放、对象复用、引用管理等技巧,可以优化Java程序的性能并避免内存泄漏问题。
28 5
|
2月前
|
存储 设计模式 缓存
C++享元模式探索:轻松优化内存使用和性能提升之道
C++享元模式探索:轻松优化内存使用和性能提升之道
41 0
|
2月前
|
存储 缓存 算法
深入探究LRU缓存机制:优化内存利用与提升性能
深入探究LRU缓存机制:优化内存利用与提升性能
159 1
|
2月前
|
缓存 资源调度 Go
内存模型与调度器在Go语言并发编程中的应用与优化
【2月更文挑战第16天】Go语言以其独特的并发编程模型而备受瞩目,其中内存模型和调度器是支撑其高效并发执行的关键机制。本文将探讨内存模型与调度器在Go语言并发编程中的应用场景,并介绍一些优化策略,帮助开发者更好地利用这些机制,提升程序的性能和稳定性。
|
2月前
|
监控 Java 编译器
Go语言内存与并发性能综合优化策略
【2月更文挑战第11天】Go语言以其高效的并发处理能力和简洁的内存管理机制成为了现代软件开发中的热门选择。然而,在实际应用中,如何综合优化Go程序的内存使用和并发性能,仍然是一个值得探讨的话题。本文将深入探讨Go语言内存与并发性能的综合优化策略,包括内存布局优化、并发模式设计、资源池化以及性能监控与分析等方面,旨在帮助开发者全面提升Go程序的整体性能。
|
2月前
|
Java 编译器 Go
Go语言内存管理优化实践
【2月更文挑战第11天】随着Go语言在各个领域的应用日益广泛,对其性能的要求也越来越高。内存管理作为影响程序性能的关键因素之一,对Go语言的优化显得尤为重要。本文将深入探讨Go语言的内存管理机制,并提供一系列实用的内存优化策略,帮助开发者更加高效地利用内存资源,提升Go程序的整体性能。
|
3月前
|
监控 Java 编译器
优化Go语言程序中的内存使用与垃圾回收性能
【2月更文挑战第5天】本文旨在探讨如何优化Go语言程序中的内存使用和垃圾回收性能。我们将深入了解内存分配策略、垃圾回收机制,并提供一系列实用的优化技巧和建议,帮助开发者更有效地管理内存,减少垃圾回收的开销,从而提升Go程序的性能。
|
3月前
|
存储 Rust 安全
Rust中避免不必要的内存分配与复制的优化策略
在Rust编程语言中,内存分配与复制是常见的性能瓶颈。本文深入探讨了如何在Rust中避免不必要的内存分配和复制,包括使用栈分配、借用与所有权、智能指针、以及零拷贝策略等。通过理解这些概念并应用相应的优化策略,Rust开发者可以显著提高代码的性能和效率。