hadoop cascading demo

简介:
Java 代码:
package  com.xunjie.dmsp.olduser;

import  java.util.Properties;

import  cascading.flow.Flow;
import  cascading.flow.FlowConnector;
import  cascading.operation.regex.RegexSplitter;
import  cascading.pipe.Each;
import  cascading.pipe.Pipe;
import  cascading.scheme.TextLine;
import  cascading.tap.Hfs;
import  cascading.tap.Tap;
import  cascading.tuple.Fields;

/**
 * test.txt: 
 * 1    a
 * 2    b
 * 3    c
 * 
 * /data/hadoop/hadoop/bin/hadoop jar 
 *         dmsp_test_jar-1.0-SNAPSHOT-dependencies.jar 
 *             hdfs:/user/hadoop/test/lky/test.txt
 *             file:///data/hadoop/test/lky/output
 
*/
public   class  Test2 {
    
public   static   void  main(String[] args) {
        
        
// 设定输入文件
        String sourcePath =  args[ 0 ];
        
// 设置输出文件夹
        String sinkPath  =  args[ 1 ];

        
// 定义读取列
        Fields inputfields  =   new  Fields( " num " " value " );
        
// 定义分解正则,默认 \t
        RegexSplitter spliter  =   new  RegexSplitter(inputfields);
        
        
        
// 管道定义
        Pipe p1  =   new  Pipe(  " test "  );
        
// 管道嵌套:
        
// 分解日志源文件,输出给定字段
        p1  =   new  Each(p1, new  Fields( " line " ) ,spliter);
        
        
        
// 设定输入和输出 ,使用 泛型Hfs
        Tap source  =   new  Hfs(  new  TextLine(),  sourcePath );
        Tap sink 
=   new  Hfs(  new  TextLine() , sinkPath );
        
        
        
        
// 配置job
        Properties properties  =   new  Properties();
        properties.setProperty(
" hadoop.job.ugi " " hadoop,hadoop " );
        
        FlowConnector.setApplicationJarClass( properties, Main.
class  );
        FlowConnector flowConnector 
=   new  FlowConnector(properties);
        
        Flow importFlow 
=  flowConnector.connect(  " import flow " , source,sink,p1);
        
        importFlow.start();
        importFlow.complete();
        

    }
}
本文转自博客园刘凯毅的博客,原文链接:hadoop cascading demo,如需转载请自行联系原博主。



目录
相关文章
|
5天前
|
分布式计算 Hadoop
使用Hadoop ToolRunner 运行wordcount demo
使用Hadoop ToolRunner 运行wordcount demo
28 0
|
5天前
|
分布式计算 Hadoop Java
Hadoop 跑wordcount demo
Hadoop 跑wordcount demo
26 0
|
5天前
|
存储 分布式计算 Hadoop
大数据处理架构Hadoop
【4月更文挑战第10天】Hadoop是开源的分布式计算框架,核心包括MapReduce和HDFS,用于海量数据的存储和计算。具备高可靠性、高扩展性、高效率和低成本优势,但存在低延迟访问、小文件存储和多用户写入等问题。运行模式有单机、伪分布式和分布式。NameNode管理文件系统,DataNode存储数据并处理请求。Hadoop为大数据处理提供高效可靠的解决方案。
98 2
|
5天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。
|
5天前
|
分布式计算 数据可视化 Hadoop
大数据实战——基于Hadoop的Mapreduce编程实践案例的设计与实现
大数据实战——基于Hadoop的Mapreduce编程实践案例的设计与实现
45 0
|
5天前
|
分布式计算 资源调度 Hadoop
java与大数据:Hadoop与MapReduce
java与大数据:Hadoop与MapReduce
28 0
|
5天前
|
存储 分布式计算 Hadoop
【专栏】Hadoop,开源大数据处理框架:驭服数据洪流的利器
【4月更文挑战第28天】Hadoop,开源大数据处理框架,由Hadoop Common、HDFS、YARN和MapReduce组成,提供大规模数据存储和并行处理。其优势在于可扩展性、容错性、高性能、灵活性及社区支持。然而,数据安全、处理速度、系统复杂性和技能短缺是挑战。通过加强安全措施、结合Spark、自动化工具和培训,Hadoop在应对大数据问题中保持关键地位。
|
5天前
|
分布式计算 Hadoop 大数据
[大数据] mac 史上最简单 hadoop 安装过程
[大数据] mac 史上最简单 hadoop 安装过程
|
5天前
|
SQL 分布式计算 Hadoop
利用Hive与Hadoop构建大数据仓库:从零到一
【4月更文挑战第7天】本文介绍了如何使用Apache Hive与Hadoop构建大数据仓库。Hadoop的HDFS和YARN提供分布式存储和资源管理,而Hive作为基于Hadoop的数据仓库系统,通过HiveQL简化大数据查询。构建过程包括设置Hadoop集群、安装配置Hive、数据导入与管理、查询分析以及ETL与调度。大数据仓库的应用场景包括海量数据存储、离线分析、数据服务化和数据湖构建,为企业决策和创新提供支持。
95 1

相关实验场景

更多