算法思考:红包金额生成

简介: 最近在整理过去的项目时,回顾了某年红包活动的项目,其中涉及红包金额计算的算法。近些年各家大厂举办的春节红包活动越来越完善,关于活动背后的整体设计介绍、分析、探讨层出不穷。本篇先不关注整体架构,选择红包金额的计算方法作为分析内容。 在当时的项目中,红包金额计算主要是采用了基于一些入参的随机数生成,并且生成的是单个红包金额,并未使用队列方式做预生成。所以再次回顾这个案例,其中其实还有很多可以玩味和深入思考的地方,在这里做一次思考总结。

一 背景

   最近在整理过去的项目时,回顾了某年红包活动的项目,其中涉及红包金额计算的算法。近些年各家大厂举办的春节红包活动越来越完善,关于活动背后的整体设计介绍、分析、探讨层出不穷。本篇先不关注整体架构,选择红包金额的计算方法作为分析内容。

   在当时的项目中,红包金额计算主要是采用了基于一些入参的随机数生成,并且生成的是单个红包金额,并未使用队列方式做预生成。所以再次回顾这个案例,其中其实还有很多可以玩味和深入思考的地方,在这里做一次思考总结。

二 题目描述

   要求设计在微信群抢红包的算法,红包总金额为m元,分成n份,要求返回一个红包金额数组。算法需要满足下面的几条要求:

  • 前n个抢红包的人都能抢到钱,第n个之后的人直接返回空包,所以这里不做考虑;
  • 每个人能抢到的红包金额是随机的,但随机范围最大化(有机会获得可能的最多金额) ;
  • 抢到红包的每个人,抢到相同金额的概率是一样的。

三 传说中微信红包算法

   网上其实可以搜到很多关于红包金额计算方法的解析,例如 微信红包的随机算法是怎样实现的?,给出了一个传说是微信内部人提供的代码:

public static double getRandomMoney(RedPackage _redPackage){
        //remainSize 剩余的红包数量
        //remainMoney 剩余的钱
        if(_redPackage.remainSize == 1){
            _redPackage.remainSize--;
            return (double) Math.round(_redPackage.remainMoney * 100)/100;
        }
        Random r = new Random();
        double min = 0.01;
        double max = _redPackage.remainMoney / _redPackage.remainSize * 2;
        double money = r.nextDouble() * max;
        money = money <= min ? 0.01 : mondy;
        money = Math.floor(money * 100) / 100;
        _redPackage.remainSize--;
        _redPackage.remainMoney -= money;
        return money;
    }

   当然,double类型显然是不靠谱的,楼主也做了补充,商业计算需要使用java.math.BigDecimal;并且在回答中提供了测试结果,包括金额分布情况。

四 一个朴素且简单的思考实现

4.1 分析

   如果我们自己从头思考,那么会考虑怎样来实现呢?一个简单的方法,n个人,生成n次金额数据,当然,我们也要保证n次的金额综合=m元,且每次每人领取到的金额最小值是0.01元,也就是一分钱;最大值是当前的剩余金额-剩余人数。例如总金额1元,5个人可抢,那么第一个人可以抽到的最大金额是0.96元,之后每个人领取一元,这是最极端的情况。

   其次,上面的这种算法是否能够保证绝对随机?如果不能,那么我们是否有修正策略来做个补救?争取让每个人可能获得的金额尽可能的达到随机效果?

   当然,如果能从算法上直接解决是最好的。但如果短时间想不到能够最为符合要求的算法,那么就只能考虑这种补救方法,虽然效率上要差一些,但可以符合要求。既然生成的金额数组可能不是绝对平均,那么我们再生成一次随机数组,调整初始金额数组中各元素的顺序,做个随机乱序,那么就可以接近题目要求的效果。

4.2 一个代码实现(未优化)

public int[] createRandomArr(int m, int n) throws Exception{
        int[] ret = new int[n];
        int total = m*100;
        Random random = new Random();
        int cur = 1;
        int curSum = 0;
        while(cur <= n-1){
            int curLeft = total-curSum-(n-cur);
            int curAcount = random.nextInt(curLeft);
            curAcount = 1+curAcount;
            ret[cur-1] = curAcount;
            curSum+=curAcount;
            cur++;
        }
        ret[n-1] = total-curSum;
        int[] newRet = new int[n];
        Map<Integer, Boolean> map = new HashMap<Integer, Boolean>();
        for(int i=0;i<n;i++){
            int index = random.nextInt(n);
            while(map.containsKey(index)){
                index = random.nextInt(n);
            }
            newRet[i] = ret[index];
            map.put(index, true);
        }
        return newRet;
    }

五 再次思考

   容易看出,上面的算法非常粗糙,不过也勉强能达到题目的大部分要求。影响效率严重的点,就是在生成随机索引数组,也就是第22行。上面的示例代码是通过while循环来实现的。这里可以考虑通过分段优化的方式来避免while循环。事实上,如果java中有类似php中shuffle(洗牌,做数组随机乱序)的方法,那么就可以直接使用来做第二步的乱序逻辑了。更多的优化,留给大家来思考了。

相关文章
|
算法 安全 PHP
PHP算法系列一:在规定次数中随机分配指定金额
PHP算法:在规定次数中随机分配指定金额
938 0
|
11天前
|
存储 编解码 算法
【多光谱滤波器阵列设计的最优球体填充】使用MSFA设计方法进行各种重建算法时,图像质量可以提高至多2 dB,并在光谱相似性方面实现了显著提升(Matlab代码实现)
【多光谱滤波器阵列设计的最优球体填充】使用MSFA设计方法进行各种重建算法时,图像质量可以提高至多2 dB,并在光谱相似性方面实现了显著提升(Matlab代码实现)
|
13天前
|
传感器 机器学习/深度学习 算法
【使用 DSP 滤波器加速速度和位移】使用信号处理算法过滤加速度数据并将其转换为速度和位移研究(Matlab代码实现)
【使用 DSP 滤波器加速速度和位移】使用信号处理算法过滤加速度数据并将其转换为速度和位移研究(Matlab代码实现)
100 1
|
12天前
|
传感器 机器学习/深度学习 算法
【UASNs、AUV】无人机自主水下传感网络中遗传算法的路径规划问题研究(Matlab代码实现)
【UASNs、AUV】无人机自主水下传感网络中遗传算法的路径规划问题研究(Matlab代码实现)
|
11天前
|
机器学习/深度学习 传感器 算法
【高创新】基于优化的自适应差分导纳算法的改进最大功率点跟踪研究(Matlab代码实现)
【高创新】基于优化的自适应差分导纳算法的改进最大功率点跟踪研究(Matlab代码实现)
102 14
|
15天前
|
传感器 算法 数据挖掘
基于协方差交叉(CI)的多传感器融合算法matlab仿真,对比单传感器和SCC融合
基于协方差交叉(CI)的多传感器融合算法,通过MATLAB仿真对比单传感器、SCC与CI融合在位置/速度估计误差(RMSE)及等概率椭圆上的性能。采用MATLAB2022A实现,结果表明CI融合在未知相关性下仍具鲁棒性,有效降低估计误差。
130 15
|
11天前
|
机器学习/深度学习 运维 算法
【微电网多目标优化调度】多目标学习者行为优化算法MOLPB求解微电网多目标优化调度研究(Matlab代码实现)
【微电网多目标优化调度】多目标学习者行为优化算法MOLPB求解微电网多目标优化调度研究(Matlab代码实现)
|
16天前
|
机器学习/深度学习 传感器 算法
基于全局路径的无人地面车辆的横向避让路径规划研究[蚂蚁算法求解](Matlab代码实现)
基于全局路径的无人地面车辆的横向避让路径规划研究[蚂蚁算法求解](Matlab代码实现)
|
15天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于WOA鲸鱼优化的XGBoost序列预测算法matlab仿真
基于WOA优化XGBoost的序列预测算法,利用鲸鱼优化算法自动寻优超参数,提升预测精度。结合MATLAB实现,适用于金融、气象等领域,具有较强非线性拟合能力,实验结果表明该方法显著优于传统模型。(238字)

热门文章

最新文章