开发者社区> 问答> 正文

开发spark应用程序(和Flume-NG结合时)发布应用时可能出现。。。。

开发spark应用程序(和Flume-NG结合时)发布应用时可能出现org.jboss.netty.channel.ChannelException: Failed to bind to: /192.168.10.156:18800 15/11/27 10:33:44 ERROR ReceiverSupervisorImpl: Stopped receiver with error: org.jboss.netty.channel.ChannelException: Failed to bind to: /192.168.10.156:18800 15/11/27 10:33:44 ERROR Executor: Exception in task 0.0 in stage 2.0 (TID 70) org.jboss.netty.channel.ChannelException: Failed to bind to: /192.168.10.156:18800 at org.jboss.netty.bootstrap.ServerBootstrap.bind(ServerBootstrap.java:272) Caused by: java.net.BindException: Cannot assign requested address

展开
收起
茶什i 2019-10-29 14:54:13 483 0
2 条回答
写回答
取消 提交回答
  • 由于spark通过Master发布的时候,会自动选取发送到某一台的worker节点上,所以这里绑定端口的时候,需要选择相应的worker服务器,但是由于我们无法事先了解到,spark发布到哪一台服务器的,所以这里启动报错,是因为在 192.168.10.156:18800的机器上面没有启动Driver程序,而是发布到了其他服务器去启动了,所以无法监听到该机器出现问题,所以我们需要设置spark分发包时,发布到所有worker节点机器,或者发布后,我们去寻找发布到了哪一台机器,重新修改绑定IP,重新发布,有一定几率发布成功。详情可见《印象笔记-战5渣系列——Spark Streaming启动问题 - 推酷》

    2019-10-30 15:59:20
    赞同 展开评论 打赏
  • 精于基础,广于工具,熟于业务。

    可以设置一下设置spark分发包时,发布到所有worker节点机器,会有一定几率成功

    2019-10-30 15:01:18
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载

相关实验场景

更多