在e-mapreduce跑spark streaming,1分钟打印一条日志发现没有打印。
其实这个问题可能有很多原因,最有可能的原因是:客户的资源配置少了。
按照此客户为例:
他申请一个集群,其中一个master,另一个是slave,slave有6core。
他启动2个executor,每个1core。再job 配置了两个receiver。
spark streaming会启动一些receiver守护task,占用task的资源,周期性的批处理需要再一些新的task。
此job就会立即占住2core,随后的周期性的批处理就卡主了(没有资源了)。
这里只需要 启动2个executor,把每个1core,改成2core就可以了
大数据计算实践乐园,近距离学习前沿技术