算法思考:红包金额生成

简介: 最近在整理过去的项目时,回顾了某年红包活动的项目,其中涉及红包金额计算的算法。近些年各家大厂举办的春节红包活动越来越完善,关于活动背后的整体设计介绍、分析、探讨层出不穷。本篇先不关注整体架构,选择红包金额的计算方法作为分析内容。 在当时的项目中,红包金额计算主要是采用了基于一些入参的随机数生成,并且生成的是单个红包金额,并未使用队列方式做预生成。所以再次回顾这个案例,其中其实还有很多可以玩味和深入思考的地方,在这里做一次思考总结。

一 背景

   最近在整理过去的项目时,回顾了某年红包活动的项目,其中涉及红包金额计算的算法。近些年各家大厂举办的春节红包活动越来越完善,关于活动背后的整体设计介绍、分析、探讨层出不穷。本篇先不关注整体架构,选择红包金额的计算方法作为分析内容。

   在当时的项目中,红包金额计算主要是采用了基于一些入参的随机数生成,并且生成的是单个红包金额,并未使用队列方式做预生成。所以再次回顾这个案例,其中其实还有很多可以玩味和深入思考的地方,在这里做一次思考总结。

二 题目描述

   要求设计在微信群抢红包的算法,红包总金额为m元,分成n份,要求返回一个红包金额数组。算法需要满足下面的几条要求:

  • 前n个抢红包的人都能抢到钱,第n个之后的人直接返回空包,所以这里不做考虑;
  • 每个人能抢到的红包金额是随机的,但随机范围最大化(有机会获得可能的最多金额) ;
  • 抢到红包的每个人,抢到相同金额的概率是一样的。

三 传说中微信红包算法

   网上其实可以搜到很多关于红包金额计算方法的解析,例如 微信红包的随机算法是怎样实现的?,给出了一个传说是微信内部人提供的代码:

public static double getRandomMoney(RedPackage _redPackage){
        //remainSize 剩余的红包数量
        //remainMoney 剩余的钱
        if(_redPackage.remainSize == 1){
            _redPackage.remainSize--;
            return (double) Math.round(_redPackage.remainMoney * 100)/100;
        }
        Random r = new Random();
        double min = 0.01;
        double max = _redPackage.remainMoney / _redPackage.remainSize * 2;
        double money = r.nextDouble() * max;
        money = money <= min ? 0.01 : mondy;
        money = Math.floor(money * 100) / 100;
        _redPackage.remainSize--;
        _redPackage.remainMoney -= money;
        return money;
    }

   当然,double类型显然是不靠谱的,楼主也做了补充,商业计算需要使用java.math.BigDecimal;并且在回答中提供了测试结果,包括金额分布情况。

四 一个朴素且简单的思考实现

4.1 分析

   如果我们自己从头思考,那么会考虑怎样来实现呢?一个简单的方法,n个人,生成n次金额数据,当然,我们也要保证n次的金额综合=m元,且每次每人领取到的金额最小值是0.01元,也就是一分钱;最大值是当前的剩余金额-剩余人数。例如总金额1元,5个人可抢,那么第一个人可以抽到的最大金额是0.96元,之后每个人领取一元,这是最极端的情况。

   其次,上面的这种算法是否能够保证绝对随机?如果不能,那么我们是否有修正策略来做个补救?争取让每个人可能获得的金额尽可能的达到随机效果?

   当然,如果能从算法上直接解决是最好的。但如果短时间想不到能够最为符合要求的算法,那么就只能考虑这种补救方法,虽然效率上要差一些,但可以符合要求。既然生成的金额数组可能不是绝对平均,那么我们再生成一次随机数组,调整初始金额数组中各元素的顺序,做个随机乱序,那么就可以接近题目要求的效果。

4.2 一个代码实现(未优化)

public int[] createRandomArr(int m, int n) throws Exception{
        int[] ret = new int[n];
        int total = m*100;
        Random random = new Random();
        int cur = 1;
        int curSum = 0;
        while(cur <= n-1){
            int curLeft = total-curSum-(n-cur);
            int curAcount = random.nextInt(curLeft);
            curAcount = 1+curAcount;
            ret[cur-1] = curAcount;
            curSum+=curAcount;
            cur++;
        }
        ret[n-1] = total-curSum;
        int[] newRet = new int[n];
        Map<Integer, Boolean> map = new HashMap<Integer, Boolean>();
        for(int i=0;i<n;i++){
            int index = random.nextInt(n);
            while(map.containsKey(index)){
                index = random.nextInt(n);
            }
            newRet[i] = ret[index];
            map.put(index, true);
        }
        return newRet;
    }

五 再次思考

   容易看出,上面的算法非常粗糙,不过也勉强能达到题目的大部分要求。影响效率严重的点,就是在生成随机索引数组,也就是第22行。上面的示例代码是通过while循环来实现的。这里可以考虑通过分段优化的方式来避免while循环。事实上,如果java中有类似php中shuffle(洗牌,做数组随机乱序)的方法,那么就可以直接使用来做第二步的乱序逻辑了。更多的优化,留给大家来思考了。

目录
打赏
0
0
0
1
7
分享
相关文章
PHP算法系列一:在规定次数中随机分配指定金额
PHP算法:在规定次数中随机分配指定金额
842 0
基于生物地理算法的MLP多层感知机优化matlab仿真
本程序基于生物地理算法(BBO)优化MLP多层感知机,通过MATLAB2022A实现随机数据点的趋势预测,并输出优化收敛曲线。BBO模拟物种在地理空间上的迁移、竞争与适应过程,以优化MLP的权重和偏置参数,提升预测性能。完整程序无水印,适用于机器学习和数据预测任务。
106 31
基于LSB最低有效位的音频水印嵌入提取算法FPGA实现,包含testbench和MATLAB对比
本项目展示了一种基于FPGA的音频水印算法,采用LSB(最低有效位)技术实现版权保护与数据追踪功能。使用Vivado2019.2和Matlab2022a开发,完整代码含中文注释及操作视频。算法通过修改音频采样点的最低有效位嵌入水印,人耳难以察觉变化。然而,面对滤波或压缩等攻击时,水印提取可能受影响。该项目运行效果无水印干扰,适合实时应用场景,核心逻辑简单高效,时间复杂度低。
基于GA遗传算法的拱桥静载试验车辆最优布载matlab仿真
本程序基于遗传算法(GA)实现拱桥静载试验车辆最优布载的MATLAB仿真,旨在自动化确定车辆位置以满足加载效率要求(0.95≤ηq≤1.05),目标是使ηq尽量接近1,同时减少车辆数量和布载耗时。程序在MATLAB 2022A版本下运行,展示了工况1至工况3的测试结果。通过优化模型,综合考虑车辆重量、位置、类型及车道占用等因素,确保桥梁关键部位承受最大荷载,从而有效评估桥梁性能。核心代码实现了迭代优化过程,并输出最优布载方案及相关参数。
基于MobileNet深度学习网络的活体人脸识别检测算法matlab仿真
本内容主要介绍一种基于MobileNet深度学习网络的活体人脸识别检测技术及MQAM调制类型识别方法。完整程序运行效果无水印,需使用Matlab2022a版本。核心代码包含详细中文注释与操作视频。理论概述中提到,传统人脸识别易受非活体攻击影响,而MobileNet通过轻量化的深度可分离卷积结构,在保证准确性的同时提升检测效率。活体人脸与非活体在纹理和光照上存在显著差异,MobileNet可有效提取人脸高级特征,为无线通信领域提供先进的调制类型识别方案。
基于模糊神经网络的金融序列预测算法matlab仿真
本程序为基于模糊神经网络的金融序列预测算法MATLAB仿真,适用于非线性、不确定性金融数据预测。通过MAD、RSI、KD等指标实现序列预测与收益分析,运行环境为MATLAB2022A,完整程序无水印。算法结合模糊逻辑与神经网络技术,包含输入层、模糊化层、规则层等结构,可有效处理金融市场中的复杂关系,助力投资者制定交易策略。
基于BBO生物地理优化的三维路径规划算法MATLAB仿真
本程序基于BBO生物地理优化算法,实现三维空间路径规划的MATLAB仿真(测试版本:MATLAB2022A)。通过起点与终点坐标输入,算法可生成避障最优路径,并输出优化收敛曲线。BBO算法将路径视为栖息地,利用迁移和变异操作迭代寻优。适应度函数综合路径长度与障碍物距离,确保路径最短且安全。程序运行结果完整、无水印,适用于科研与教学场景。
基于IEKF迭代扩展卡尔曼滤波算法的数据跟踪matlab仿真,对比EKF和UKF
本项目基于MATLAB2022A实现IEKF迭代扩展卡尔曼滤波算法的数据跟踪仿真,对比EKF和UKF的性能。通过仿真输出误差收敛曲线和误差协方差收敛曲线,展示三种滤波器的精度差异。核心程序包括数据处理、误差计算及可视化展示。IEKF通过多次迭代线性化过程,增强非线性处理能力;UKF避免线性化,使用sigma点直接处理非线性问题;EKF则通过一次线性化简化处理。
基于二次规划优化的OFDM系统PAPR抑制算法的matlab仿真
本程序基于二次规划优化的OFDM系统PAPR抑制算法,旨在降低OFDM信号的高峰均功率比(PAPR),以减少射频放大器的非线性失真并提高电源效率。通过MATLAB2022A仿真验证,核心算法通过对原始OFDM信号进行预编码,最小化最大瞬时功率,同时约束信号重构误差,确保数据完整性。完整程序运行后无水印,展示优化后的PAPR性能提升效果。

热门文章

最新文章