hadoop mapreduce运行job task报OutOfMemoryError错误
java.lang.OutOfMemoryError: GC overhead limit exceeded
at java.lang...
这是因为你的task内存使用超过了你申请的内存总量。Hadoop默认每个task使用的内存Heap size是200M(可以参考在配置文件hadoop-default.xml里设置的mapred.child.java.opts参数,-Xmx200m),如果你的task需要较多的内存,超过了200M,这时你可以为你的task申请更多的内存,方法是重设mapred.child.java.opts参数,比如在hadoop-site.xml里添加:
<property>
<name>mapred.child.java.opts</name>
<value>-Xmx1024m</value>
</property>
或者在运行时通过 -Dmapred.child.java.opts=Xmx1024m
这样你的task就可以使用1G内存,你也可以在命令行或程序里设置这个参数。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。