算法思考:红包金额生成

简介: 最近在整理过去的项目时,回顾了某年红包活动的项目,其中涉及红包金额计算的算法。近些年各家大厂举办的春节红包活动越来越完善,关于活动背后的整体设计介绍、分析、探讨层出不穷。本篇先不关注整体架构,选择红包金额的计算方法作为分析内容。 在当时的项目中,红包金额计算主要是采用了基于一些入参的随机数生成,并且生成的是单个红包金额,并未使用队列方式做预生成。所以再次回顾这个案例,其中其实还有很多可以玩味和深入思考的地方,在这里做一次思考总结。

一 背景

   最近在整理过去的项目时,回顾了某年红包活动的项目,其中涉及红包金额计算的算法。近些年各家大厂举办的春节红包活动越来越完善,关于活动背后的整体设计介绍、分析、探讨层出不穷。本篇先不关注整体架构,选择红包金额的计算方法作为分析内容。

   在当时的项目中,红包金额计算主要是采用了基于一些入参的随机数生成,并且生成的是单个红包金额,并未使用队列方式做预生成。所以再次回顾这个案例,其中其实还有很多可以玩味和深入思考的地方,在这里做一次思考总结。

二 题目描述

   要求设计在微信群抢红包的算法,红包总金额为m元,分成n份,要求返回一个红包金额数组。算法需要满足下面的几条要求:

  • 前n个抢红包的人都能抢到钱,第n个之后的人直接返回空包,所以这里不做考虑;
  • 每个人能抢到的红包金额是随机的,但随机范围最大化(有机会获得可能的最多金额) ;
  • 抢到红包的每个人,抢到相同金额的概率是一样的。

三 传说中微信红包算法

   网上其实可以搜到很多关于红包金额计算方法的解析,例如 微信红包的随机算法是怎样实现的?,给出了一个传说是微信内部人提供的代码:

public static double getRandomMoney(RedPackage _redPackage){
        //remainSize 剩余的红包数量
        //remainMoney 剩余的钱
        if(_redPackage.remainSize == 1){
            _redPackage.remainSize--;
            return (double) Math.round(_redPackage.remainMoney * 100)/100;
        }
        Random r = new Random();
        double min = 0.01;
        double max = _redPackage.remainMoney / _redPackage.remainSize * 2;
        double money = r.nextDouble() * max;
        money = money <= min ? 0.01 : mondy;
        money = Math.floor(money * 100) / 100;
        _redPackage.remainSize--;
        _redPackage.remainMoney -= money;
        return money;
    }

   当然,double类型显然是不靠谱的,楼主也做了补充,商业计算需要使用java.math.BigDecimal;并且在回答中提供了测试结果,包括金额分布情况。

四 一个朴素且简单的思考实现

4.1 分析

   如果我们自己从头思考,那么会考虑怎样来实现呢?一个简单的方法,n个人,生成n次金额数据,当然,我们也要保证n次的金额综合=m元,且每次每人领取到的金额最小值是0.01元,也就是一分钱;最大值是当前的剩余金额-剩余人数。例如总金额1元,5个人可抢,那么第一个人可以抽到的最大金额是0.96元,之后每个人领取一元,这是最极端的情况。

   其次,上面的这种算法是否能够保证绝对随机?如果不能,那么我们是否有修正策略来做个补救?争取让每个人可能获得的金额尽可能的达到随机效果?

   当然,如果能从算法上直接解决是最好的。但如果短时间想不到能够最为符合要求的算法,那么就只能考虑这种补救方法,虽然效率上要差一些,但可以符合要求。既然生成的金额数组可能不是绝对平均,那么我们再生成一次随机数组,调整初始金额数组中各元素的顺序,做个随机乱序,那么就可以接近题目要求的效果。

4.2 一个代码实现(未优化)

public int[] createRandomArr(int m, int n) throws Exception{
        int[] ret = new int[n];
        int total = m*100;
        Random random = new Random();
        int cur = 1;
        int curSum = 0;
        while(cur <= n-1){
            int curLeft = total-curSum-(n-cur);
            int curAcount = random.nextInt(curLeft);
            curAcount = 1+curAcount;
            ret[cur-1] = curAcount;
            curSum+=curAcount;
            cur++;
        }
        ret[n-1] = total-curSum;
        int[] newRet = new int[n];
        Map<Integer, Boolean> map = new HashMap<Integer, Boolean>();
        for(int i=0;i<n;i++){
            int index = random.nextInt(n);
            while(map.containsKey(index)){
                index = random.nextInt(n);
            }
            newRet[i] = ret[index];
            map.put(index, true);
        }
        return newRet;
    }

五 再次思考

   容易看出,上面的算法非常粗糙,不过也勉强能达到题目的大部分要求。影响效率严重的点,就是在生成随机索引数组,也就是第22行。上面的示例代码是通过while循环来实现的。这里可以考虑通过分段优化的方式来避免while循环。事实上,如果java中有类似php中shuffle(洗牌,做数组随机乱序)的方法,那么就可以直接使用来做第二步的乱序逻辑了。更多的优化,留给大家来思考了。

相关文章
|
算法 安全 PHP
PHP算法系列一:在规定次数中随机分配指定金额
PHP算法:在规定次数中随机分配指定金额
820 0
|
9天前
|
算法 数据安全/隐私保护
室内障碍物射线追踪算法matlab模拟仿真
### 简介 本项目展示了室内障碍物射线追踪算法在无线通信中的应用。通过Matlab 2022a实现,包含完整程序运行效果(无水印),支持增加发射点和室内墙壁设置。核心代码配有详细中文注释及操作视频。该算法基于几何光学原理,模拟信号在复杂室内环境中的传播路径与强度,涵盖场景建模、射线发射、传播及接收点场强计算等步骤,为无线网络规划提供重要依据。
|
22天前
|
机器学习/深度学习 算法
基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真
本项目基于改进遗传优化的BP神经网络进行金融序列预测,使用MATLAB2022A实现。通过对比BP神经网络、遗传优化BP神经网络及改进遗传优化BP神经网络,展示了三者的误差和预测曲线差异。核心程序结合遗传算法(GA)与BP神经网络,利用GA优化BP网络的初始权重和阈值,提高预测精度。GA通过选择、交叉、变异操作迭代优化,防止局部收敛,增强模型对金融市场复杂性和不确定性的适应能力。
157 80
|
10天前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a实现时间序列预测,采用CNN-GRU-SAM网络结构。卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征。完整代码含中文注释和操作视频,运行效果无水印展示。算法通过数据归一化、种群初始化、适应度计算、个体更新等步骤优化网络参数,最终输出预测结果。适用于金融市场、气象预报等领域。
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
|
10天前
|
算法
基于龙格库塔算法的锅炉单相受热管建模与matlab数值仿真
本设计基于龙格库塔算法对锅炉单相受热管进行建模与MATLAB数值仿真,简化为喷水减温器和末级过热器组合,考虑均匀传热及静态烟气处理。使用MATLAB2022A版本运行,展示自编与内置四阶龙格库塔法的精度对比及误差分析。模型涉及热传递和流体动力学原理,适用于优化锅炉效率。
|
8天前
|
移动开发 算法 计算机视觉
基于分块贝叶斯非局部均值优化(OBNLM)的图像去噪算法matlab仿真
本项目基于分块贝叶斯非局部均值优化(OBNLM)算法实现图像去噪,使用MATLAB2022A进行仿真。通过调整块大小和窗口大小等参数,研究其对去噪效果的影响。OBNLM结合了经典NLM算法与贝叶斯统计理论,利用块匹配和概率模型优化相似块的加权融合,提高去噪效率和保真度。实验展示了不同参数设置下的去噪结果,验证了算法的有效性。
|
7天前
|
算法 决策智能
基于SA模拟退火优化算法的TSP问题求解matlab仿真,并对比ACO蚁群优化算法
本项目基于MATLAB2022A,使用模拟退火(SA)和蚁群优化(ACO)算法求解旅行商问题(TSP),对比两者的仿真时间、收敛曲线及最短路径长度。SA源于金属退火过程,允许暂时接受较差解以跳出局部最优;ACO模仿蚂蚁信息素机制,通过正反馈发现最优路径。结果显示SA全局探索能力强,ACO在路径优化类问题中表现优异。
|
16天前
|
机器学习/深度学习 算法
基于遗传优化的双BP神经网络金融序列预测算法matlab仿真
本项目基于遗传优化的双BP神经网络实现金融序列预测,使用MATLAB2022A进行仿真。算法通过两个初始学习率不同的BP神经网络(e1, e2)协同工作,结合遗传算法优化,提高预测精度。实验展示了三个算法的误差对比结果,验证了该方法的有效性。
|
18天前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-GRU-SAM网络在时间序列预测中的应用。算法通过卷积层、GRU层、自注意力机制层提取特征,结合粒子群优化提升预测准确性。完整程序运行效果无水印,提供Matlab2022a版本代码,含详细中文注释和操作视频。适用于金融市场、气象预报等领域,有效处理非线性数据,提高预测稳定性和效率。

热门文章

最新文章