Update StateByKey 算子. Tranform算子_ 1|学习笔记

简介: 快速学习 Update StateByKey 算子. Tranform 算子_ 1

开发者学堂课程【大数据实时计算框架 Spark 快速入门:Update StateByKey  算子. Tranform 算子_ 1】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/100/detail/1724


Update StateByKey  算子. Tranform 算子_ 1


具体操作如下:

package com. shsxt. study,streaming;

import java. sql.  Connection ;

public class  PersistMySQLWordcount {

public static void main(String[]args){

Sparkconf conf=new SparkConf().  settlaster ("local[1]"). setAppName ("Persist# ySQIWordcoun   JavaStreamingContextjsc =new  JavaStreamingContext (conf, Durations,seconds(5));

JavaDStream <String>lines=jssc. textFileStream ("hdfs://node21:8020/wordcount _ dir");  JavaDStream <String>words=lines,flatMap(new  FlatMapFunction <String, Stringy()(

private static final long serial  VersionUID =1L;

@Override

public Iterable<String>call(String line) throws Exception{

return Arrays. astist(line, split("“));

}

});  

JavaPairDStream <String,Integer>pairs=words.mapToPair(new  Pairfunction <String, string.

private static final long se  rialVersionUID =1L;

@Override

publicTuple2 <String, Integer>call(String word) throws Exception{

wordpress. print();

wordcounts . foreachRDD (new VoidFunction < 3avaPairRDD <String, Integer>>(){

private static final long serial  VersionUID =1L;

@Override public void call( JavaPairRDD <String,Integer> wordcountsRDD ) throws Exception{word countsRDD. foreach Partition(new Void Function<Iterator<Tuple2<String, Integer>>>(){

private static final long serial  VersionUID =1L;

@Override public void call(Iterator<Tuple2<String, Integer> wordcounts ) throws Exception{ Connection  conn= ConnectionPool . getConnection ();

Tuple2<String, Integer>wordcount=null;

while( wordcounts .hasNext()}{

wordpress= wordcounts . next();

String sql="insert into wordcount(word, count)"

+"values('"+wordcount._1+"',"+wordcount._2+")";

Statement stmt=conn. createStatement ();

stmt  executeUpdate (sql);

Conne ctionPool. returnConne  ction(conn);

}

});

jssc. start();

jssc. awaitTermination ();

jssc. close();

}

相关文章
|
5月前
|
存储 分布式计算 Scala
bigdata-36-Spark转换算子与动作算子
bigdata-36-Spark转换算子与动作算子
39 0
|
5月前
|
机器学习/深度学习 分布式计算 数据库连接
[Spark精进]必须掌握的4个RDD算子之filter算子
[Spark精进]必须掌握的4个RDD算子之filter算子
107 2
|
存储 缓存 分布式计算
Spark RDD算子进阶(转换算子、行动算子、缓存、持久化)(下)
Spark RDD算子进阶(转换算子、行动算子、缓存、持久化)(下)
142 0
Spark RDD算子进阶(转换算子、行动算子、缓存、持久化)(下)
|
SQL 分布式计算 BI
MaxCompute笛卡尔积逻辑的参数优化&复杂JOIN逻辑优化
这篇文章主要讲一个SQL优化反映的两个优化点。分别是: 一、笛卡尔积逻辑的参数优化。 二、一个复杂JOIN逻辑的优化思路。
2222 2
MaxCompute笛卡尔积逻辑的参数优化&复杂JOIN逻辑优化
|
分布式计算 大数据 开发者
RDD 算子_转换 join | 学习笔记
快速学习 RDD 算子_转换 join
RDD 算子_转换 join | 学习笔记
|
分布式计算 大数据 数据处理
RDD 算子_ Action _ take | 学习笔记
快速学习 RDD 算子_ Action _ take
RDD 算子_ Action _ take | 学习笔记
|
分布式计算 大数据 调度
RDD 算子_ Action _ countByKey | 学习笔记
快速学习 RDD 算子_ Action _ countByKey
RDD 算子_ Action _ countByKey | 学习笔记
|
数据采集 分布式计算 大数据
Rdd 算子_转换_filter | 学习笔记
快速学习 Rdd 算子_转换_filter
Rdd 算子_转换_filter | 学习笔记
|
分布式计算 大数据 开发者
RDD 算子_ Action _总结 | 学习笔记
快速学习 RDD 算子_ Action _总结
|
分布式计算 大数据 数据处理
RDD 算子_分类 | 学习笔记
快速学习 RDD算子_分类