基于hash计算的多层实验流量切分的实现

简介:

1.      背景介绍

         站点新功能或者是站内新策略开发完毕之后,在全流量上线之前要评估新功能或者新策略的优劣,常用的评估方法是A-B测试,做法是在全量中抽样出两份小流量,分别走新策略分支和旧策略分支,通过对比这两份流量下的各指标的差异,我们可以评估出新策略的优劣,进而决定新策略是否全流量。

         上文中提到的抽样是指按照某种确定的随机化方法,对线上流量进行划分。抽样可以指这种划分的方法,也可以指划分得到的一个流量子集。抽样是一种特殊的小流量,要求对流量的划分必须保证均匀性和随机性,并且可以根据需求过滤掉不符合规范的部分,我们把抽样的过程分为流量切分和流量筛选两个步骤,流量切分是指把全流量进行均匀的打散,提取出其中固定的流量比例,流量筛选是对流量切分的辅助,筛选过程就是从切分好的流量中过滤掉不符合规范的部分,本文主要涉及的是流量切分的实现。

 

2.      单层流量切分架构

         做到流量切分的常用的方法是单层流量切分,流量切分需要以某种方式进行,即流量切分的打散依据,例如,我们可以依据流量中的cookie打散,或者是随机打散等,打散的方式不同,切分的对象全集也就不同了,如果我们依据cookie打散,那么我们的切分对象全集就是所有的cookie,如果是随机打散,那么我们的切分对象全集就是该站点的所有的流量。

图1.1 单层流量切分架构示意图

         有了上面的想法,我们如何实现单层流量切分呢?如图1.1所示,我们按照指定的流量切分方式,将所需要的输入参数先经过一次hash计算,产生结果的均匀性和随机性由hash算法来保证,有了hash产生的结果,流量切分的过程还没有结束,我们还需要将hash结果对应到切分对象的全集上面,实现方法是将切分对象全集看作是一个区间段,然后将hash结果对应到区间段上面,区间的大小是切分的最小粒度决定的,例如,如果需要最小切分粒度为0.01%,则我们选取的区间段为[0,9999],有了区间段的定义,我们可以将hash结果对一个数值取模,这个数值等于区间段最大值加1,取模之后的结果可以唯一的对应到切分对象全集区间上面,这样我们就将所有的流量打到了流量切分对象全集上面。

         最后,我们再将区间段按照实验需求细分,划分成若干子区间,用作于实验对比,例如下图所示,将整个100%的区间分为多个子区间,每个子区间使用唯一的编号——sid,作为区间的唯一的标识,sid=1的子区间对应的流量为1%,那么它的子区间就是[0,99],同理,sid=2的第二个1%的子区间对应的区间值为[100,199],这样我们就将一个100%的完整区间划分成了若干个子区间,两个比例相同的子区间就可以用作于实验策略对比。

图1.2 流量子区间的划分

3.      可复用流量的多层流量切分架构

         这种单层流量切分方式是一种独占式的流量切分方式,一个子区间只能供给一个实验使用,一个请求只能命中一个实验,优点是实验之间解藕,不相互影响,缺点是资源有限,流量分配完毕之后,后续的需求将处于长期的等待与饥饿状态,这种独占式的流量切分方式,显然在实验需求不断增加的情况下是完全不能满足的,为了解决独占的问题,我们可以采用多层流量切分方式。

         多层流量切分的思想是将单层结构扩展为多层结构,如下图所示,多层之间必须满足正交性,这里多层之间的正交性是指某一层的任何一个子区间可以随机的、均匀的对应到其他层上面,这样我们就把一个子区间对其他层的影响均匀的分散到整个层上面。

         多层流量切分架构可以将实验流量从100%扩展到100%*n,也就说每层中的流量我们都可以用做于实验对比,一次请求可以同时命中多个实验,实验流量是复用的,多层流量是满足不同层的实验之间的影响都是均匀、可预估的,开展多层实验的前提是保证这种实验间的影响是可接受的,有一些实验是不允许任何复用,例如,展现类的实验,如果两个实验各自指定了一套展现样式模板,而从展现模块的角度来讲一次请求只能展现一种样式模板,因此,这里不兼容的实验只能位于同一层中。

图1.3 多层流量切分架构示意图

         多层流量切分的另一个优势是每一层我们可以使用不同的切分方式进行,这样也极大的丰富了流量切分的多样性,那么,还有另一个问题,每一个流量层中只能采用一种流量切分方式,如果同一层中有多种切分方式的需求又如何解决呢?答案是通过层的嵌套来实现,层的嵌套是指在一个层中可以包含其他的层,如下图所示,矩形表示层,圆形表示切分出来的实验流量,其中,1号层包含了2、3、4三个层,4号层又包含9、10、11三个层,为了达到同一层内多种流量切分方式的目的,我们需要将该层切分成多个区间,例如,下图中的2号层就被分成了5、6两个层,但是这两个层也必须采用相同的切分方式,因为这两个层相当于把其父层的流量分成了两部分,因而这两部分的产生方式应该是一致的,最后,在5、6层中,我们又可以建立其他的层,这两个层就可以采用不同的流量切分方式了。

图1.4 流量切分多层嵌套示意图

         理论上,多层流量切分架构的可切分层数是无限的,可以支持任意多的流量层,但是,从实现的角度来讲,层数做到无限是很难实现的,因为,为了保证层和层之间的正交性,我们必须要为每一层实现一套hash算法,保证每种hash算法的结果是正交的,要实现层数的无限,则需要实现无限多个保证正交的hash算法,hash算法的增多势必会导致正交性的下降,我们可以实现有限个正交的hash算法,hash算法的数目是要求可以满足所有的实验需求的。下面我们介绍一种多层流量切分架构的实现方法。

         为了实现多层流量切分,我们的思路是先实现一种hash算法,这种hash算法的输入是cookie、随机值等信息,输出是单次hash的结果,并且保证这种hash算法结果足够的均匀和随机,然后将这种hash进行变换,扩展出多个正交的hash算法。

         为了验证单个hash算法的随机性和均匀性,我们进行了实验验证,如下图所示,每一行表示一个100%的全集,每一列表示从全集中抽取出10%,测试的全集是100w,从下面的测试数据来看,每个层中的流量切分结果是比较均匀和随机的。

图1.5 单hash算法均匀性、随机性验证实验数据

    有了单层hash算法,我们需要将单层hash扩展成为多层,这里可以采用的方法很多,本文采用的是移位变换的方法将单层hash扩展成为多层hash,多层实验流量切分的真实环境测试数据如下文所示。

4.      实际数据测试

         为了验证其算法的可行性,我们进行了实际数据测试,测试结果如下:

表1.2 均匀性验证数据

by yangfangwei&huangjin&yaoshiyu






本文转自百度技术51CTO博客,原文链接:http://blog.51cto.com/baidutech/1033689,如需转载请自行联系原作者

相关文章
|
7天前
|
缓存 并行计算 负载均衡
大模型推理优化实践:KV cache复用与投机采样
在本文中,我们将详细介绍两种在业务中实践的优化策略:多轮对话间的 KV cache 复用技术和投机采样方法。我们会细致探讨这些策略的应用场景、框架实现,并分享一些实现时的关键技巧。
|
10天前
R语言中固定与随机效应Meta分析 - 效率和置信区间覆盖
R语言中固定与随机效应Meta分析 - 效率和置信区间覆盖
21 3
|
1月前
|
机器学习/深度学习 存储 缓存
BurstAttention:可对非常长的序列进行高效的分布式注意力计算
研究人员探索了提高LLM注意力机制效率的策略,包括FlashAttention(利用SRAM加速)和RingAttention(分布式多设备处理)。新提出的BurstAttention结合两者,优化跨设备计算与通信,减少40%通信开销,使128K长度序列在8×A100 GPU上的训练速度翻倍。论文于3月发布,但实现未公开
26 3
|
4月前
【代数学习题3】从零理解数域扩张与嵌入 —— 同构、商环、分裂域与同态映射
【代数学习题3】从零理解数域扩张与嵌入 —— 同构、商环、分裂域与同态映射
105 0
|
6月前
|
SQL 存储 分布式计算
HA3 SQL样本实验:一种混合计算查询的全新样本解决方案
HA3(对外开源代号:Havenask )是阿里智能引擎团队自研的大规模分布式检索系统,广泛应用于阿里内部的搜索业务,是十多年来阿里在电商领域积累下来的核心竞争力产品。Ha3 SQL 是在原有Ha3引擎基础上,新增的SQL查询功能,引擎内置了SQL形式的的查询语法,允许用户通过写SQL语句来构造引擎查询。
|
11月前
|
分布式计算 算法 大数据
白话Elasticsearch45-深入聚合数据分析之易并行聚合算法,三角选择原则,近似聚合算法
白话Elasticsearch45-深入聚合数据分析之易并行聚合算法,三角选择原则,近似聚合算法
68 0
|
机器学习/深度学习 自然语言处理 达摩院
模型精度再被提升,统一跨任务小样本学习算法 UPT 给出解法!
UPT是一种面向多种NLP任务的小样本学习算法,致力于利用多任务学习和预训练增强技术,在仅需要标注极少训练数据的情况下,提升大规模预训练语言模型在多种场景下的模型精度。
|
机器学习/深度学习 算法
【计算理论】计算复杂性 ( 计算理论内容概览 | 计算问题的有效性 | 时间复杂性度量 | 输入表示 | 时间复杂度 )
【计算理论】计算复杂性 ( 计算理论内容概览 | 计算问题的有效性 | 时间复杂性度量 | 输入表示 | 时间复杂度 )
142 0
|
机器学习/深度学习 算法 数据挖掘
迁移学习中如何利用权值调整数据分布?DATL、L2TL两大方法解析
本文综述了两篇在迁移学习中利用权值调整数据分布的论文。通过这两个重要工作,读者可了解如何在迁移学习中进行微调的方法和理论。
175 0
迁移学习中如何利用权值调整数据分布?DATL、L2TL两大方法解析
【挑战】计算48种依次泛化的假设情况下,总共有多少种不可再简化的析合范式?
一种可行的算法: 由于属性泛化后,一个泛化的假设可以对应多个具体假设。 把所有假设按三属性泛化,二属性泛化,一属性泛化,具体属性排序(这样可以保证排在后面的假设不会包含前面的任何一个假设,所以省略了一些包含判断),进行循环枚举,按顺序遍历所有假设组合248种可能(当然绝大部分都提前结束了,不会是那么夸张的量级,虽然也不低): 使用栈来实现非递归,如果当前假设还有没被析合式所包含的具体假设,则认为可以入栈,并当前栈大小的长度计数加1,并继续扫描。
1078 0