在Storm的Toplogy中设置多数据源Spout

简介:

上代码:主要看main方法中的设置.   如下代码是一般情况下的设置方法...Trident中设置多数据源看对应的博客总结

复制代码
  1 /**
  2  * 指定多个数据源
  3  * 数字累加求和
  4  * 先添加storm依赖
  5  */
  6 public class LocalTopologyMeger {
  7     /**
  8      * spout需要继承baserichspout,实现未实现的方法
  9      * @author Administrator
 10      *
 11      */
 12     public static class MySpout extends BaseRichSpout{
 13         private Map conf;
 14         private TopologyContext context;
 15         private SpoutOutputCollector collector;
 16         
 17         /**
 18          * 初始化方法,只会执行一次
 19          * 在这里面可以写一个初始化的代码
 20          * Map conf:其实里面保存的是topology的一些配置信息
 21          * TopologyContext context:topology的上下文,类似于servletcontext
 22          * SpoutOutputCollector collector:发射器,负责向外发射数据(tuple)
 23          */
 24         @Override
 25         public void open(Map conf, TopologyContext context,
 26                 SpoutOutputCollector collector) {
 27             this.conf = conf;
 28             this.context = context;
 29             this.collector = collector;
 30         }
 31 
 32         int num = 1;
 33         /**
 34          * 这个方法是spout中最重要的方法,
 35          * 这个方法会被storm框架循环调用,可以理解为这个方法是在一个while循环之内
 36          * 每调用一次,会向外发射一条数据
 37          */
 38         @Override
 39         public void nextTuple() {
 40             System.out.println("spout发射:"+num);
 41             //把数据封装到values中,称为一个tuple,发射出去
 42             this.collector.emit(new Values(num++));
 43             Utils.sleep(1000);
 44         }
 45         
 46         /**
 47          * 声明输出字段
 48          */
 49         @Override
 50         public void declareOutputFields(OutputFieldsDeclarer declarer) {
 51             //给values中的数据起个名字,方便后面的bolt从这个values中取数据
 52             //fields中定义的参数和values中传递的数值是一一对应的
 53             declarer.declare(new Fields("num"));
 54         }
 55         
 56     }
 57     
 58     
 59     /**
 60      * 自定义bolt需要实现baserichbolt
 61      * @author Administrator
 62      *
 63      */
 64     public static class MyBolt extends BaseRichBolt{
 65         private Map stormConf; 
 66         private TopologyContext context;
 67         private OutputCollector collector;
 68         
 69         /**
 70          * 和spout中的open方法意义一样
 71          */
 72         @Override
 73         public void prepare(Map stormConf, TopologyContext context,
 74                 OutputCollector collector) {
 75             this.stormConf = stormConf;
 76             this.context = context;
 77             this.collector = collector;
 78         }
 79 
 80         int sum = 0;
 81         /**
 82          * 是bolt中最重要的方法,当spout发射一个tuple出来,execute也会被调用,需要对spout发射出来的tuple进行处理
 83          */
 84         @Override
 85         public void execute(Tuple input) {
 86             //input.getInteger(0);//也可以根据角标获取tuple中的数据
 87             Integer value = input.getIntegerByField("num");
 88             sum+=value;
 89             System.out.println("和:"+sum);
 90         }
 91         
 92         /**
 93          * 声明输出字段
 94          */
 95         @Override
 96         public void declareOutputFields(OutputFieldsDeclarer declarer) {
 97             //在这没必要定义了,因为execute方法中没有向外发射tuple,所以就不需要声明了。
 98             //如果nextTuple或者execute方法中向外发射了tuple,那么declareOutputFields必须要声明,否则不需要声明
 99         }
100         
101     }
102     /**
103      * 注意:在组装topology的时候,组件的id在定义的时候,名称不能以__开头。__是系统保留的
104      * @param args
105      */
106     public static void main(String[] args) {
107         //组装topology
108         TopologyBuilder topologyBuilder = new TopologyBuilder();
109         topologyBuilder.setSpout("spout1", new MySpout());
110         topologyBuilder.setSpout("spout2", new MySpout());
111         //.shuffleGrouping("spout1"); 表示让MyBolt接收MySpout发射出来的tuple
112         topologyBuilder.setBolt("bolt1", new MyBolt()).shuffleGrouping("spout1").shuffleGrouping("spout2");
113         
114         //创建本地storm集群
115         LocalCluster localCluster = new LocalCluster();
116         localCluster.submitTopology("sumTopology", new Config(), topologyBuilder.createTopology());
117     }
118 }
复制代码

 


本文转自SummerChill博客园博客,原文链接:http://www.cnblogs.com/DreamDrive/p/6675974.html,如需转载请自行联系原作者

相关文章
|
2月前
|
消息中间件 NoSQL Kafka
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
200 0
|
6月前
|
消息中间件 SQL 数据处理
实时计算 Flink版产品使用问题之sink多个并行度写入rabbit mq会导致顺序性问题吗
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
7月前
|
存储 Java Linux
Storm详细配置
Storm详细配置
102 0
|
消息中间件 Java Kafka
Java实现Flink集成Kafka消费数据
Java实现Flink集成Kafka消费数据
442 0
|
消息中间件 Kafka 数据处理
【源码解读】Flink-Kafka连接器自定义序列器和分区器
【源码解读】Flink-Kafka连接器自定义序列器和分区器
1241 0
|
流计算 Java 安全