京东商城ContainerLB实践

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
EMR Serverless StarRocks,5000CU*H 48000GB*H
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: 本文讲的是京东商城ContainerLB实践【编者的话】随着京东业务的高速增长,作为应用入口的负载均衡,大流量大并发带来的挑战越来越严峻。本文主要介绍了京东商城设计和实践的一套高可靠,高性能的负载均衡器,我们命名为ContainerLB。
本文讲的是京东商城ContainerLB实践【编者的话】随着京东业务的高速增长,作为应用入口的负载均衡,大流量大并发带来的挑战越来越严峻。本文主要介绍了京东商城设计和实践的一套高可靠,高性能的负载均衡器,我们命名为ContainerLB。是一个使用intel DPDK报文转发库,实现运行在通用X86服务器上自研的分布式负载均衡服务。配合网络路由器的多重等价路由协议(OSPF)或者边际网关协议(BGP),组成承担京东数据中心核心四层负载均衡的集群。最大限度的发挥普通X86服务器硬件资源的性能,实现一套适合于京东商城业务的低成本,分布式,高性能,可扩展的智能负载均衡系统。

【深圳站|3天烧脑式Kubernetes训练营】培训内容包括:Kubernetes概述、架构、日志和监控,部署、自动驾驶、服务发现、网络方案等核心机制分析,进阶篇——Kubernetes调度工作原理、资源管理及源码分析等。

介绍

京东商城目前是国内最大的电商企业。京东的机房内部的流量爆炸式快速的增长。早在2016年初京东商城已经将所有的业务系统全部迁移到容器平台JDOS,线上20万+容器实例承载着数千个业务应用。大流量的负载均衡的分配显得至关重要,也是京东商城新一代软件定义数据中心的关键基础服务设施之一。

负载均衡器一般介于网络上的路由器与后端服务器之间,负责将每个数据包通过一定的服务匹配,将其转发到后端服务器节点。充分考虑到京东商城数据中心全容器及全三层BGP组网的模型。以及基于DPDK的几乎达到网卡限速的性能,我们在设计负载均衡时,仅考虑实现了FULLNAT模式,即出向和入向的流量均通过负载均衡器,基本数据流程图如下图1所示:
01.png

图 1 负载均衡流程图

一般根据业务及流量的规模的不同阶段来选择使用不同的负载均衡,通常我们在负载均衡的选择上大致有以下两个方向:1)硬件负载均衡,如F5、Citrix NetScaler等;2)软件负载均衡,如基于LVS、HAProxy、Nginx等开源软件来实现的负载均衡。对于上述两种负载均衡的选择,各有优缺点,如下:

硬件负载均衡

可扩展性受限,无法跟上业务流量增长的需求。以及如618、双十一大促等瞬间流量高峰。

虽然可以成对部署避免单点故障,但是一般只能提供1+1冗余。

缺乏互联网快速迭代的灵活性,升级成本昂贵。

一般只能根据网络的情况来设定负载均衡,无关乎实际系统和硬件的情况。

成本较高。

基于开源软件的负载均衡

可以根据实际系统和应用的状态来合理的负载,迭代、扩容和部署相对方便。

单台负载均衡性能相对较差,需要用集群来支撑负载均衡的整体性能。

性价比较低。

我们的目标:
  1. 设计实现一套高可靠、高性能、易维护及性价比高的L4负载均衡系统。
  2. 基于通用X86_64服务器框架,以及支持DPDK网卡硬件,易开发和移植。
  3. 方便部署、删除和维护,集成到京东软件定义数据中心(JDOS2.0)系统,作为京东下一代软件定义数据中心的基础组件。
  4. 负载均衡下的服务器基于系统应用负载流量均摊,负载均衡器提供N+1 冗余,借助OSPF/BGP控制负载均衡器的流量负载。
  5. 基于系统应用级别的探活,自动故障检测及流量快速恢复。

本文主要介绍了ContainerLB一种基于DPDK平台实现的快速可靠的软件网络负载均衡系统。不仅可以快速的横向扩展,还可以最大限度的提升负载均衡单个NIC的处理转发速度,来实现L4的负载均衡。借助DPDK的优势,如便利的多核编程框架、巨页内存管理、无锁队列、无中断poll-mode 网卡驱动、CPU亲和性等等来实现快速的网卡收发及处理报文,后续考虑TCP/IP 用户态协议实现和优化,进而实现L7负载均衡。

系统概览

工作场景

ContainerLB部署在京东容器集群JDOS的前端,对于一个应用集群,发布一个或多个VIP到ContainerLB服务上,当客户端需要访问应用节资源URL,首先通过域名访问JD智能分布式DNS服务(SKYDNS详见 https://github.com/ipdcode/skydns ), SkyDns会智能返回当前最近且状态正常且负载正常的VIP服务的IP,客户端就会向VIP去请求连接。

ContainerLB节点上运行了一个路由发布服务agent,我们使用该agent与开启OSPF/BGP的路由器做路由交互,当ContainerLB的上层路由器接收到请求VIP的数据包时,路由器通过(OSPF/BGP)的等价多路径转发协议选择一个可以使用的发布该VIP的ContainerLB节点,将报文转发给一个ContainerLB节点。通过这种策略来实现VIP的发布和横向容量负载能力扩展。

当报文通过上述步骤到达ContainerLB负载均衡后,通过常用的负载均衡策略(round robin,一致性hash,最小连接数),将数据包送到相应的后端容器服务。

系统架构

Jingdong Datacenter Operating System(JDOS)是基于JDOS提供物理机/虚拟机/容器的统一管理系统、配备灵活的网络互连、可靠的分布式共享存储,实现软件定义数据中心的计算资源统一管理和集群管理。通过使用JDOS,可以直接迅速得到任意需要的计算、存储、网络、安全等方面的资源和能力。ContainerLB作为整个JDOS系统的一个重要组成部分,负责提供集群的L4负载均衡能力,通过RESTful API等接口与JDOS系统交互。用户可以通过统一调度管理平台便捷的创建、删除、迁移负载均衡系统。同时多个应用服务进行流量分发的负载均衡服务,从而扩展应用系统对外的服务能力,并且通过消除单点故障提高应用系统的可用性。

系统的基本架构如下图2所示,每一个集群配备一组可容灾的负载均衡控制中心,主要通过RESTful API接口负责与JDOS调度中心交互,接收VIP的配置请求。同时我们在每一个ContainerLB的节点上运行一个代理进程,该代理进程通过gRPC与控制中心连接。接收控制中心下达的创建及删除VIP,后端server endpoint服务等一系列指令,通过load balancer提供的命令行执行相应的指令。接收load balancer关于流量及报文的监控信息,对于流量及监控进行告警,并且通知控制中心和调度中心进行扩容等操作。

代理进程同时还负责后端服务server endpoint基于服务可用性的健康检查,及时根据后端服务的状态通过命令行进行添加和删除的操作。
2.png

图 2 系统架构图

优势

  1. 扩展性,支持动态添加和删除后端服务的容器,实现无缝的伸缩;在伸,缩过程中,对相关调用和访问者无影响。
  2. 高可用性,提供多活负载均衡,有多个VIP,它们对应一个域名,自研DNS服务SKYDNS会根据请求的客户端IP智能解析可用的VIP,返回给用户,从而实现更高的可用性;即使一个VIP不可用,也不会影响业务系统对外提供服务。同时借助OSPF/BGP等协议实现负载均衡的横向扩充。
  3. 服务能力自动可调,ContainerLB根据VIP实际接收流量的负载需要调整负载均衡的服务能力,比如流量、连接数的控制等指标。

功能特点

  1. 协议支持,负载均衡支持包含TCP、UDP协议的四层负载均衡,配备健全的链路跟踪机制,以及多种调度策略,用户可以根据服务的需要创建合适自己的负载均衡。
  2. 高可用性,支持容器的健康检查,除传统的IP+Port,并加入对URL检查,保证应用可用性: 健康检查频率可自定义;一旦探测到异常,则不会将流量再分配到这些异常实例,保证应用可用性。
  3. 集群部署,多层次容错机制: 负载均衡采用集群部署,支持热升级,机器故障和集群维护对用户完全透明,结合DNS使用还可支持全局负载均衡。
  4. 灵活性,支持多种流量调度算法,使得流量分配更均匀: 负载均衡支持加权轮询和最小连接数这两种调度算法,可根据自身需求选择相应的算法来分配用户访问流量,并支持设置后端容器权重,使得流量调度更均匀,提升负载均衡能力。

    支持会话保持,满足用户个性化需求: 负载均衡通过IP地址实现会话保持,可将一定时间内来自同一用户的访问请求,转发到同一个后端容器上进行处理,从而实现用户访问的连续性。
  5. 易用性,提供多种管理途径,轻松操纵负载均衡: 用户可通过控制台轻松实现负载均衡器的配置、释放等功能。后续会开放标准的API或SDK提供给用户,从而自己开发对负载均衡的控制管理。

系统设计及技术实现

负载均衡模式选择

常用的负载均衡模式有DR、NAT、TUNNEL、FULLNAT。每种模式都有自己的优势和使用场景,业内对每种模式的分析比较文档很多,不再介绍。由于JDOS容器网络需要VLAN隔离,而FULLNAT刚好支持LB和RS跨VLAN通信,结合我们自身容器集群的需求,我们在实现ContainerLB时主要考虑支持FULLNAT模式。图3是ContainerLB的FULLNAT负载均衡模式中数据包的流向图。ContainerLB位于客户端和后端服务之间,对于客户端的请求报文,将目的地址替换成后端服务的地址,源地址替换成ContainerLB的本地地址,对于后端服务的响应报文,将目的地址替换成客户端地址,源地址替换成ContainerLB的VIP地址。
3.png

图 3 FULLNAT模式下CONTAINERLB的数据包流向图

借助DPDK实现高速转发

Data Plane Development Kit(DPDK):是运行在Linux用户态,实现X86通用平台网络报文快速处理的库和驱动的集合,如下图4所示,其主要特点:
  • 多核编程框架及CPU亲和性
    每个NUMA节点有单独的CPU和本地内存
    CPU访问本地内存速度比访问远端内存快,避免CPU访问远端内存
    注意网卡挂载的NUMA节点巨页内存管理
  • 巨页(HugePage)
    普通内存页面大小4KB,巨页内存页面大小2MB/1GB
    减少页表项数目,降低TLB miss
    使用大页面比使用4K的页面性能提高10%~15%
    零拷贝,报文数据及转发内存零拷贝。
  • 无锁队列
    使用无锁队列,入队出队无需阻塞等待锁资源
  • poll-mode网卡驱动
    DPDK网卡驱动完全抛弃中断模式,基于轮询方式收包
    4.png

    图 4 DPDK相关模块

包处理架构实现

图5是ContainerLB基于RTC数据包处理模型实现的架构。ContainerLB选择一个核作为控制核,执行命令配置,与内核交换,ARP表维护等任务。其他的核作为工作核,每个工作核轮询网卡的一个RX队列,执行数据包处理任务。ContainerLB利用网卡的RSS功能实现客户端请求报文的分流,利用网卡FDIR功能实现后端服务响应报文的分流。ContainerLB对报文分流目的是要保证客户端的请求报文和其对应的服务端响应报文到达同一个工作核上。在这个目的达成的前提下,ContainerLB的业务实现会简单和高效很多。每个工作核维护一张session表,同于保存客户端和后端服务的连接信息。ContainerLB不需要考虑对session表加锁,因为每个工作核的session表都是独立的。
5.png

图 5 ContainerLB的RTC包处理模型框架图

我们设计ContainerLB每个工作核独占至少一个LIP,并将LIP信息写入网卡配置。图6是网卡对IP报文分流的流程图。图中dst_ip即ContainerLB为每个工作核分配的LIP。网卡对后端服务响应报文的目的地址LIP匹配成功,将报文送到绑定的RX队列,没有匹配的报文则可以认为是客户端的请求报文,按RSS流程分配RX队列。
6.png

图 6 网卡对IP报文分流过程图

ContainerLB在启动过程中还会为每个物理口创建一个KNI接口,控制核负责轮询KNI接口。该接口主要用于外部程序quagga向路由器发布VIP信息,Agent检查后端服务健康状态。

ContainerLB目前支持的负载均衡调度算法有一致性hash,round robin和最小连接数算法。

Session五元组,ContainerLB采用五元组来实现会话的管理功能,如下图7所示:
7.png

图 7 ContainerLB 五元组管理Session

负载均衡冗余设计

ContainerLB使用BGP或者OSPF的模式组成集群,通过上述协议将数据包散列到集群中各个节点上,保证单台ContainerLB故障或者恢复后能动态的将机器添加及删除。其冗余实现设计如下图8所示:
8.png

图 8 ContainerLB的冗余设计

性能优化实践

良好的流程设计是性能提升的关键,这方面的流程涉及和业务相关,缺乏共性,因此不做详细阐述。主要介绍ContainerLB性能优化过程中使用的其他优化方法。

恰当地使用rte_prefetch0(),可以减少cache-miss次数,避免当前函数成为性能热点。性能调优工具perf可以帮助我们分析应该在哪处代码使用预取。例如我们使用perf发现报文处理函数中有一个处代码是性能热点,该代码用于读取新报文的类型字段并判断,分析认为很可能是cache-misses造成的。在进入报文处理函数前使用rte_prefetch0(),有效避免该函数成为热点。

恰当地使用likely()和unlikely(),可以减少分支预测失败的次数。我们在ContainerLB代码的一处分支语句中使用unlikely()优化,性能提升明显。分支预测优化点可以借助perf分析确定,也可以根据自己对代码执行流程的理解确定。

尽量减少锁的使用。ContainerLB中配置信息不经常变化,我们没有单独为每个可能争用的资源加锁,而是只用一把DPDK提供的读写锁,每个读线程在加读锁后,处理一批报文,然后释放读锁。既简化流程,又减少了操作读写锁的开销(DPDK读写锁的开销并不是很大)。

性能数据

测试环境

CPU:Intel(R) Xeon(R) CPU E5-2640 v3
NIC:intel 82599ES 10-Gigabit SFI/SFP+ Network Connection

测试配置

负载均衡模式:FULLNAT
调度算法:一致性hash
配置:CPU占用8核 内存占用4G

性能测试数据

1. UDP发包,测试转发性能,我们使用了SKYDNS作为后端服务,客户端采用UDP请求DNS。
001.png

表 1 ContainerLB基于UDP的DNS性能测试数据
2. NGINX作为后端服务,压测HTTP性能。
配置:CPU占用8核 内存占用4G
002.png

表 2 ContainerLB HTTP性能测试数据

9.png

图 9 ContainerLB http 性能测试指标图

总结

本文主要介绍了ContainerLB,一种的基于Intel DPDK平台开发的负载均衡器。其接近网卡线速处理及转发能力,灵活的部署,多样的监控以及可靠的稳定性。基本上覆盖所有4层负载均衡的业务处理需求,配合集群管理以及调度,作为京东数据中心操作系统(JDOS)的一个重要的组成部分,在京东数据中心发挥至关重要的作用。

参考资料

  1. Google Maglev:A Fast and Reliable Software Network Load Balancer
  2. DPDK:http://dpdk.org/doc/guides/prog_guide/

原文链接:京东商城ContainerLB实践

原文发布时间为:2017-05-11

本文作者:李颖杰

本文来自云栖社区合作伙伴Dockerone.io,了解相关信息可以关注Dockerone.io。

原文标题:京东商城ContainerLB实践

相关文章
|
6月前
|
小程序 JavaScript Java
暹罗外卖开源啦,一款java多商户外卖系统-商家入驻如美团饿了么
暹罗外卖是一款Java外卖配送系统,适用于多商户入驻,对标美团外卖、饿了么。系统包含用户端、商家端、配送端以及总管理后台; 前端使用uni-app开发,可打包部署到微信小程序、APP、H5 Web端使用vue + Element开发 服务端使用java语言开发,技术栈:Spring Cloud & Alibaba + Redis + RocketMQ + WebSocket + ElasticSearch + ELK + Sentinel + Seata + SkyWalking + SpringBoot Admin + Promethues + Grafana
217 2
暹罗外卖开源啦,一款java多商户外卖系统-商家入驻如美团饿了么
|
小程序 UED
美团、支付宝,藩篱不再
互联网江湖瞬息万变,对于互联网企业而言,风云变幻、势力更迭已然成为了常态。
88 0
|
新零售 人工智能 大数据
拼团众筹商城开发正式版丨拼团众筹商城系统开发(开发需求)丨拼团众筹商城系统源码及案例
 新零售即企业以互联网为依托,通过运用大数据、人工智能等先进技术手段,对商品的生产、流通与销售过程进行升级改造,进而重塑业态结构与生态圈,并对线上服务、线下体验以及现代物流进行深度融合的零售新模式。
|
自然语言处理
小技巧 - 淘宝怎么联系人工客服?
小技巧 - 淘宝怎么联系人工客服?
172 0
小技巧 - 淘宝怎么联系人工客服?
|
网络协议 Java 数据处理
京东七鲜一面总结
京东七鲜一面总结
187 0
|
安全 算法
微信“抢红包”迅速火热:不费腾讯“一兵一卒”
随着5.2版微信在春节前的1月25日晚悄然上线,“抢红包”的小游戏迅速盖过“打飞机”,成为时下拇指族中最火的活动。 与投入数亿元、借嘀嘀打车等来培育用户习惯不同,微信红包几乎不费腾讯一兵一卒,就让用户在自娱自乐的同时,轻轻松松地“交出”了银行储蓄卡、加入了微信支付的大军。“确实!这种工具性的产品用社交的方法推广起来事半功倍。”一名腾讯内部人士感慨。
224 0
微信“抢红包”迅速火热:不费腾讯“一兵一卒”
|
存储 运维 安全
抖音快手淘宝直播带货盛行,企业是否还要做官网? 网站建设公司哪家比较好?
这个问题就好比:邻居家的小孩很优秀,自家的孩子现在努力还来得及吗?
604 0
抖音快手淘宝直播带货盛行,企业是否还要做官网? 网站建设公司哪家比较好?
|
JSON 前端开发 Java
淘宝特价版开发体系的探索
淘宝特价版为了解决app自身的研发效率,用户体验问题,引入Flutter框架,并结合FaaS进行云端一体化融合。一个开发者可以在框架内顺畅的完成前端+后端的开发,相对于传统Native开发交付流程,节省一半以上的开发成本。本次分享将由淘宝特价版开发团队 iOS 高级开发工程师李彬为大家详细介绍淘宝特价版开发体系在探索过程中遇到的问题,以及基于Flutter和FaaS的页面构建方案。
2589 0
淘宝特价版开发体系的探索
|
新零售 双11 云计算
备战双十一 找阿里云的不光天猫淘宝
本文讲的是备战双十一 找阿里云的不光天猫淘宝【IT168 云计算】一年一度的双11在各大电商的暴风雨般的宣传阵仗下如期而至,记者昨日的朋友圈已被天猫双十一的交易量与双十一晚会一度刷屏。据天猫方面透露,零点钟声一过,短短的12分零28秒,天猫的销售额就突破了百亿人民币。
2778 0