初看《编程珠玑》,试着实现了一下第一章的外部排序问题,下面的程序首先用generate_num(int scope, int count)函数在0-9,999,999范围内随机生成1,000,000个正整数,存放在文件all_nums.txt中,格式如下所示:
2357779
3473210
4731848
然后,通过函数disk_sort()对该文件中的所有正整数进行排序并将其排序结果存放在另一个文件sorted_nums.txt中,其思想同书中类似,不同的是这里用的是占8位的char来表示位向量all_nums[n],'0'表示这个数n不在待排序集合中,'1'表示这个数n在待排序集合出现1次,以此类推. char all_nums[MAX_SCOPE]这个数组需要占用10M内存空间。用clang3.5或gcc4.8编译成功后,分别在64位的Ubuntu14.04和Windows 8下运行它却发现segmentation fault (core dumped)错误。而同时以十倍缩小整数范围和整数个数至MAX_SCOPE=1,000,000和count=100,000就能够顺利运行。完整代码在这里https://gist.github.com/xuefu/9aecc7f2b8ae3ab0ce55点击预览。
我的问题是(基于Ubuntu 14.04):
操作系统对其运行的某个进程是否有内存大小限制,这个值是多少,若有,对堆内存和栈内存的限制是否一样?
如何来饶过这个限制,使得这个程序成功运行?应该是在编译时设置还是运行时设置?
C语言如何来存储单个的二进制位,像C++中的bitset类一样?
Linux 里面程序能使用的堆内存和栈内存最大值是可以通过 ulimit -v 和 ulimit -s 命令设置的,详见 help ulimit。
程序也能动态的通过 setrlimit() 来动态的设置最大值,不过允许设置的范围不能超过 ulimit 命令所设置的 hard limit。
C 的标准库并没有封装类似 bitset 的东西(说起来,C 标准库有封装任何的容器么?),你自己写一个吧,应该相当的简单,无非就是一些很直接的 bit 运算。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。