小米教你:2GB内存搞定20亿数据的高效算法

本文涉及的产品
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
智能开放搜索 OpenSearch向量检索版,4核32GB 1个月
OpenSearch LLM智能问答版免费试用套餐,存储1GB首月+计算资源100CU
简介: 你好,我是小米。本文介绍如何在2GB内存中找出20亿个整数里出现次数最多的数。通过将数据用哈希函数分至16个小文件,每份独立计数后选出频次最高的数,最终比对得出结果。这种方法有效解决大数据下的内存限制问题,并可应用于更广泛的场景。欢迎关注我的公众号“软件求生”,获取更多技术分享!



Hello,大家好!我是小米,今天要和大家聊聊一个非常有意思的算法实战问题——在2GB内存中,如何在20亿个整数中找到出现次数最多的数。这个问题涉及到大数据处理和算法优化,特别适合喜欢钻研技术的你!让我们一起来探讨一下吧!

问题描述

我们有一个包含20亿个整数的大文件,目标是在有限的内存(2GB)内找到出现次数最多的整数。通常情况下,我们可以使用哈希表对每个出现的数进行词频统计,哈希表的key是某个整数,value记录整数出现的次数。

假设每个整数是32位(4B),每个出现次数的记录也是32位(4B),那么一条哈希表记录需要占用8B的内存。当哈希表记录数达到2亿个时,需要16亿个字节(1.6GB)内存。而我们要处理的是20亿个记录,至少需要16GB的内存,显然不符合题目要求。

解决方案

为了解决这个问题,我们可以利用哈希函数将20亿个数的大文件分成16个小文件。这样,每个小文件中的数就大大减少了,且每个小文件的大小也在可控范围内。具体步骤如下:

  1. 数据分割:利用哈希函数将20亿个数分成16个小文件,使得每个文件的大小和数目均匀分布。
  2. 词频统计:对每一个小文件分别用哈希表来统计其中每个数出现的次数。
  3. 结果合并:从16个小文件中分别选出出现次数最多的数,再从这16个数中选出次数最大的那个数。

数据分割

首先,我们需要将大文件分割成多个小文件,用一个好的哈希函数来保证数的均匀分布。假设我们使用简单的模运算哈希函数:

我们将20亿个数分别读入,并根据哈希函数的值分配到不同的文件中。例如,如果num_files是16,那么我们可以创建16个文件,分别存储哈希值为0到15的数。

词频统计

接下来,对每个小文件分别进行词频统计。我们可以使用Python的字典(dict)来实现哈希表:

我们对每个小文件调用count_frequencies函数,得到每个数的出现次数。

结果合并

最后,我们从每个小文件中选出出现次数最多的数,并将这些数进行比较,找出最终的结果:

将所有小文件的词频字典传入find_max_frequency函数,即可得到最终的结果。

代码实现

我们将以上步骤整合到一起,实现整个算法流程:

END

通过将大文件分割成小文件,我们成功地在有限内存内解决了20亿整数中找出出现次数最多数的问题。这个方法不仅适用于整数,还可以推广到其他大数据处理场景中。希望大家通过这篇文章能够对大数据处理和算法优化有更深的理解,也欢迎大家在评论区分享你们的思考和实践经验!

如果你喜欢这篇文章,别忘了点赞、分享和关注哦!我是小米,咱们下期再见!

我是小米,一个喜欢分享技术的29岁程序员。如果你喜欢我的文章,欢迎关注我的微信公众号软件求生,获取更多技术干货!

相关文章
|
21天前
|
存储 编译器 C语言
【C语言篇】数据在内存中的存储(超详细)
浮点数就采⽤下⾯的规则表⽰,即指数E的真实值加上127(或1023),再将有效数字M去掉整数部分的1。
|
27天前
|
存储 算法 Java
JVM自动内存管理之垃圾收集算法
文章概述了JVM内存管理和垃圾收集的基本概念,提供一个关于JVM内存管理和垃圾收集的基础理解框架。
JVM自动内存管理之垃圾收集算法
|
7天前
|
编解码 算法 图形学
同一路RTSP|RTMP流如何同时回调YUV和RGB数据实现渲染和算法分析
我们播放RTSP|RTMP流,如果需要同时做渲染和算法分析的话,特别是渲染在上层实现(比如Unity),算法是python这种情况,拉两路流,更耗费带宽和性能,拉一路流,同时回调YUV和RGB数据也可以,但是更灵活的是本文提到的按需转算法期望的RGB数据,然后做算法处理
|
25天前
|
编译器 C++
virtual类的使用方法问题之C++类中的非静态数据成员是进行内存对齐的如何解决
virtual类的使用方法问题之C++类中的非静态数据成员是进行内存对齐的如何解决
|
27天前
|
编解码 算法 Linux
Linux平台下RTSP|RTMP播放器如何跟python交互投递RGB数据供视觉算法分析
在对接Linux平台的RTSP播放模块时,需将播放数据同时提供给Python进行视觉算法分析。技术实现上,可在播放时通过回调函数获取视频帧数据,并以RGB32格式输出。利用`SetVideoFrameCallBackV2`接口设定缩放后的视频帧回调,以满足算法所需的分辨率。回调函数中,每收到一帧数据即保存为bitmap文件。Python端只需读取指定文件夹中的bitmap文件,即可进行视频数据的分析处理。此方案简单有效,但应注意控制输出的bitmap文件数量以避免内存占用过高。
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习的伦理困境:数据隐私与算法偏见
【8月更文挑战第9天】随着深度学习技术的飞速发展,其对个人隐私和数据安全的威胁日益凸显。本文探讨了深度学习在处理敏感信息时可能导致的数据泄露风险,以及训练数据中固有偏见如何影响算法公正性的问题。文章分析了当前隐私保护措施的局限性,并提出了减少算法偏见的方法。最后,本文讨论了如何在保障技术进步的同时,确保技术应用不侵犯个人权益,呼吁建立更为全面的伦理框架以指导深度学习的发展。
|
26天前
|
C++ 容器
curl使用小记(三)——获取远端数据到内存缓冲区
curl使用小记(三)——获取远端数据到内存缓冲区
32 0
|
27天前
|
存储 编译器 C语言
数据在内存中的存储
数据在内存中的存储
|
3天前
|
算法 BI Serverless
基于鱼群算法的散热片形状优化matlab仿真
本研究利用浴盆曲线模拟空隙外形,并通过鱼群算法(FSA)优化浴盆曲线参数,以获得最佳孔隙度值及对应的R值。FSA通过模拟鱼群的聚群、避障和觅食行为,实现高效全局搜索。具体步骤包括初始化鱼群、计算适应度值、更新位置及判断终止条件。最终确定散热片的最佳形状参数。仿真结果显示该方法能显著提高优化效率。相关代码使用MATLAB 2022a实现。
|
3天前
|
算法 数据可视化
基于SSA奇异谱分析算法的时间序列趋势线提取matlab仿真
奇异谱分析(SSA)是一种基于奇异值分解(SVD)和轨迹矩阵的非线性、非参数时间序列分析方法,适用于提取趋势、周期性和噪声成分。本项目使用MATLAB 2022a版本实现从强干扰序列中提取趋势线,并通过可视化展示了原时间序列与提取的趋势分量。代码实现了滑动窗口下的奇异值分解和分组重构,适用于非线性和非平稳时间序列分析。此方法在气候变化、金融市场和生物医学信号处理等领域有广泛应用。