开发者社区> 问答> 正文

请问hadoop mr Task attempt_xxx_xx_xx failed to report status for 605 seconds. Killing!是什么原因

请问hadoop mr Task attempt_xxx_xx_xx failed to report status for 605 seconds. Killing!是什么原因

展开
收起
封神 2016-04-11 13:36:55 2811 0
1 条回答
写回答
取消 提交回答
  • 专注在大数据分布式计算、数据库及存储领域,拥有13+年大数据引擎、数据仓库、宽表引擎、平台研发经验,6年云智能大数据产品技术一号位经验,10年技术团队管理经验;云智能技术架构/云布道师; 研发阿里历代的大数据技术产品包括ODPS、DLA、ADB,最近五年主导宽表引擎研发、DLA、ADB湖仓研发;

    原因:运行在hadoop的作业,task需要在10分钟内汇报自己的进度, 如果超过10分钟未汇报进度, AppMaster就会认为该task已经失败, 通常是因为处理一行记录超过了10分钟.

    解决方法:
    首先可以自己打印log查看程序慢在哪一步,然后做针对性优化
    另外也在适当的地方(比如map或reduce函数内部)加上reporter.progress(),定期汇报进度
    如果你确认task汇报进度的时间间隔是要超过10分钟,可以修改mapred.task.timeout参数,默认值是600000(毫秒),适当调大该值,设为0表示没有超时。

    2019-07-17 18:40:37
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
《构建Hadoop生态批流一体的实时数仓》 立即下载
零基础实现hadoop 迁移 MaxCompute 之 数据 立即下载
CIO 指南:如何在SAP软件架构中使用Hadoop 立即下载

相关实验场景

更多