请问hadoop mr Task attempt_xxx_xx_xx failed to report status for 605 seconds. Killing!是什么原因
原因:运行在hadoop的作业,task需要在10分钟内汇报自己的进度, 如果超过10分钟未汇报进度, AppMaster就会认为该task已经失败, 通常是因为处理一行记录超过了10分钟.
解决方法:
首先可以自己打印log查看程序慢在哪一步,然后做针对性优化
另外也在适当的地方(比如map或reduce函数内部)加上reporter.progress(),定期汇报进度
如果你确认task汇报进度的时间间隔是要超过10分钟,可以修改mapred.task.timeout参数,默认值是600000(毫秒),适当调大该值,设为0表示没有超时。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。