hadoop cascading demo

简介:
Java 代码:
package  com.xunjie.dmsp.olduser;

import  java.util.Properties;

import  cascading.flow.Flow;
import  cascading.flow.FlowConnector;
import  cascading.operation.regex.RegexSplitter;
import  cascading.pipe.Each;
import  cascading.pipe.Pipe;
import  cascading.scheme.TextLine;
import  cascading.tap.Hfs;
import  cascading.tap.Tap;
import  cascading.tuple.Fields;

/**
 * test.txt: 
 * 1    a
 * 2    b
 * 3    c
 * 
 * /data/hadoop/hadoop/bin/hadoop jar 
 *         dmsp_test_jar-1.0-SNAPSHOT-dependencies.jar 
 *             hdfs:/user/hadoop/test/lky/test.txt
 *             file:///data/hadoop/test/lky/output
 
*/
public   class  Test2 {
    
public   static   void  main(String[] args) {
        
        
// 设定输入文件
        String sourcePath =  args[ 0 ];
        
// 设置输出文件夹
        String sinkPath  =  args[ 1 ];

        
// 定义读取列
        Fields inputfields  =   new  Fields( " num " " value " );
        
// 定义分解正则,默认 \t
        RegexSplitter spliter  =   new  RegexSplitter(inputfields);
        
        
        
// 管道定义
        Pipe p1  =   new  Pipe(  " test "  );
        
// 管道嵌套:
        
// 分解日志源文件,输出给定字段
        p1  =   new  Each(p1, new  Fields( " line " ) ,spliter);
        
        
        
// 设定输入和输出 ,使用 泛型Hfs
        Tap source  =   new  Hfs(  new  TextLine(),  sourcePath );
        Tap sink 
=   new  Hfs(  new  TextLine() , sinkPath );
        
        
        
        
// 配置job
        Properties properties  =   new  Properties();
        properties.setProperty(
" hadoop.job.ugi " " hadoop,hadoop " );
        
        FlowConnector.setApplicationJarClass( properties, Main.
class  );
        FlowConnector flowConnector 
=   new  FlowConnector(properties);
        
        Flow importFlow 
=  flowConnector.connect(  " import flow " , source,sink,p1);
        
        importFlow.start();
        importFlow.complete();
        

    }
}
本文转自博客园刘凯毅的博客,原文链接:hadoop cascading demo,如需转载请自行联系原博主。



目录
相关文章
|
分布式计算 Hadoop
使用Hadoop ToolRunner 运行wordcount demo
使用Hadoop ToolRunner 运行wordcount demo
147 0
|
分布式计算 Hadoop Java
Hadoop 跑wordcount demo
Hadoop 跑wordcount demo
141 0
|
存储 分布式计算 Hadoop
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
634 79
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
895 6
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
431 2
|
存储 分布式计算 大数据
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
834 4
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
690 2
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
589 1
|
存储 分布式计算 资源调度
两万字长文向你解密大数据组件 Hadoop
两万字长文向你解密大数据组件 Hadoop
749 11

热门文章

最新文章

相关实验场景

更多
下一篇
开通oss服务