MaxCompute安装Eclipse开发插件

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 为了方便用户使用 MapReduce及UDF的Java SDK进行开发工作,MaxCompute 提供了Eclipse开发插件。该插件能够模拟MapReduce及UDF的运行过程,为用户提供本地调试手段,并提供了简单的模板生成功能。

为了方便用户使用 MapReduce及UDF的Java SDK进行开发工作,MaxCompute 提供了Eclipse开发插件。该插件能够模拟MapReduce及UDF的运行过程,为用户提供本地调试手段,并提供了简单的模板生成功能。
一、安装
与MapReduce提供的本地运行模式不同,Eclipse插件不能够与ODPS同步数据。用户使用的数据需要手动拷贝到Eclipse插件的warehouse目录下。
下载Eclipse插件后,将软件包解压,会看到如下jar内容:
odps-eclipse-plugin-bundle-X.X.X.jar
将插件放置在Eclipse安装目录的plugins子目录下。打开Eclipse,点击右上角的打开透视图(Open Perspective)。
image.png
点击后出现透视图列表。
image.png
择ODPS,随后点击OK键。同样在右上角会出现ODPS图标,表示插件生效。
image.png
1、 创建ODPS工程
创建ODPS工程有两种方式。
方式一:
在左上角选择文件(File) -> 新建(New)->Project->ODPS->ODPS Project,创建工程(示例中使用ODPS作为工程名)。
image.png
创建ODPS工程后会出现如下对话框。输入Project name,选择ODPS客户端路径(客户端需要提前下载),并确认(点击Finish)。
image.png

创建好工程后,在左侧包资源管理器(Package Explorer)中可以看到如下目录结构。
image.png
方式二:
直接点击左上角的"新建"。
image.png

弹出对话框后,选择"ODPS Project",点击"下一步"。
image.png

后续操作同方式一。
2、MapReduce开发插件介绍
(1). 快速运行WordCount示例
选择ODPS项目中的WordCount示例。
image.png

右键"WordCount.java",依次点击"Run As","ODPS MapReduce"。
image.png

弹出对话框后,选择"example_project",点击确认。
image.png

运行成功后,会出现以下结果提示。
image.png

(2). 运行自定义MapReduce程序
右键选择src目录,选择新建(New) -> Mapper。
image.png

选择Mapper后出现下面的对话框。输入Mapper类的名字,并确认。
image.png

会看到在左侧包资源管理器(Package Explorer)中,src目录下生成文件UserMapper.java。该文件的内容即是一个Mapper类的模板。
package odps;

import java.io.IOException;

import com.aliyun.odps.data.Record;
import com.aliyun.odps.mapred.MapperBase;

public class UserMapper extends MapperBase {

@Override
public void setup(TaskContext context) throws IOException {
}

@Override
public void map(long recordNum, Record record, TaskContext context)
        throws IOException {
}

@Override
public void cleanup(TaskContext context) throws IOException {
}

}
模板中,将package名称默认配置为"odps",用户可以根据自己的需求进行修改。编写模板内容。
package odps;

import java.io.IOException;

import com.aliyun.odps.counter.Counter;
import com.aliyun.odps.data.Record;
import com.aliyun.odps.mapred.MapperBase;

public class UserMapper extends MapperBase {

Record word;
Record one;
Counter gCnt;

@Override
public void setup(TaskContext context) throws IOException {
      word = context.createMapOutputKeyRecord();
      one = context.createMapOutputValueRecord();
      one.set(new Object[] { 1L });
      gCnt = context.getCounter("MyCounters", "global_counts");
}

@Override
public void map(long recordNum, Record record, TaskContext context)
        throws IOException {
      for (int i = 0; i < record.getColumnCount(); i++) {
          String[] words = record.get(i).toString().split("\\s+");
          for (String w : words) {
            word.set(new Object[] { w });
            Counter cnt = context.getCounter("MyCounters", "map_outputs");
            cnt.increment(1);
            gCnt.increment(1);
            context.write(word, one);
          }
        }
      }

@Override
public void cleanup(TaskContext context) throws IOException {
}

}
同理,右键选择src目录,选择新建(New)->Reduce。
image.png

输入Reduce类的名字(本示例使用UserReduce)。同样在包资源管理器(Package Explorer)中,src目录下生成文件UserReduce.java。该文件的内容即是一个Reduce类的模板。
package odps;

import java.io.IOException;
import java.util.Iterator;

import com.aliyun.odps.counter.Counter;
import com.aliyun.odps.data.Record;
import com.aliyun.odps.mapred.ReducerBase;

public class UserReduce extends ReducerBase {

private Record result;
Counter gCnt;

@Override
public void setup(TaskContext context) throws IOException {
      result = context.createOutputRecord();
      gCnt = context.getCounter("MyCounters", "global_counts");
}

@Override
public void reduce(Record key, Iterator<Record> values, TaskContext context)
        throws IOException {

      long count = 0;
      while (values.hasNext()) {
        Record val = values.next();
        count += (Long) val.get(0);
      }
      result.set(0, key.get(0));
      result.set(1, count);
      Counter cnt = context.getCounter("MyCounters", "reduce_outputs");
      cnt.increment(1);
      gCnt.increment(1);

      context.write(result);
    }

@Override
public void cleanup(TaskContext context) throws IOException {
}

}
创建main函数,右键选择src目录,选择新建(New) -> MapReduce Driver。填写Driver Name(示例中是UserDriver), Mapper及Recduce类(示例中是UserMapper及UserReduce),并确认。同样会在src目录下看到MyDriver.java文件。
image.png

编辑driver内容。
package odps;

import com.aliyun.odps.OdpsException;
import com.aliyun.odps.data.TableInfo;
import com.aliyun.odps.examples.mr.WordCount.SumCombiner;
import com.aliyun.odps.examples.mr.WordCount.SumReducer;
import com.aliyun.odps.examples.mr.WordCount.TokenizerMapper;
import com.aliyun.odps.mapred.JobClient;
import com.aliyun.odps.mapred.RunningJob;
import com.aliyun.odps.mapred.conf.JobConf;
import com.aliyun.odps.mapred.utils.InputUtils;
import com.aliyun.odps.mapred.utils.OutputUtils;
import com.aliyun.odps.mapred.utils.SchemaUtils;

public class UserDriver {

public static void main(String[] args) throws OdpsException {
    JobConf job = new JobConf();
    job.setMapperClass(TokenizerMapper.class);
    job.setCombinerClass(SumCombiner.class);
    job.setReducerClass(SumReducer.class);

    job.setMapOutputKeySchema(SchemaUtils.fromString("word:string"));
    job.setMapOutputValueSchema(SchemaUtils.fromString("count:bigint"));

    InputUtils.addTable(
        TableInfo.builder().tableName("wc_in1").cols(new String[] { "col2", "col3" }).build(), job);
    InputUtils.addTable(TableInfo.builder().tableName("wc_in2").partSpec("p1=2/p2=1").build(), job);
    OutputUtils.addTable(TableInfo.builder().tableName("wc_out").build(), job);

    RunningJob rj = JobClient.runJob(job);
    rj.waitForCompletion();
}

}
运行MapReduce程序,选中UserDriver.java,右键选择Run As -> ODPS MapReduce,点击确认。出现如下对话框。
image.png

选择ODPS Project为example_project,点击Finish按钮开始本地运行MapReduce程序。
image.png

有如上输出信息,说明本地运行成功。运行的输出结果在warehouse目录下。
image.png

wc_out即是输出目录,R_000000即是结果文件。通过本地调试,确定输出结果正确后,可以通过Eclipse导出(Export)功能将MapReduce打包。打包后将jar包上传到ODPS中。
本地调试通过后,用户可以通过Eclipse的Export功能将代码打成jar包,供后续分布式环境使用。在本示例中,我们将程序包命名为mr-examples.jar。选择src目录,点击Export。
image.png

选择导出模式为Jar File。
image.png

仅需要导出src目录下package(com.aliyun.odps.mapred.open.example),Jar File名称指定为"mr-examples.jar"。
image.png

确认后,导出成功。
如果用户想在本地模拟新建Project,可以在warehouse下面,创建一个新的子目录(与example_project平级的目录)。


|____my_project (项目空间目录)
|____ <__tables__>
| |__table_name1(非分区表)
| | |____ data(文件)
| | |
| | |____ <__schema__> (文件)
| |
| |__table_name2(分区表)
| |_____partition_name=partition_value(分区目录)
| | |____ data(文件)
| |
| |____ <__schema__> (文件)
|
|____ <__resources__>

|
      |___table_resource_name (表资源)
      |     |____<__ref__>
      |
      |___ file_resource_name(文件资源)

schema文件示例:
非分区表:
project=project_name
table=table_name columns=col1:BIGINT,col2:DOUBLE,col3:BOOLEAN,col4:DATETIME,col5:STRING

分区表:
project=project_name
table=table_name columns=col1:BIGINT,col2:DOUBLE,col3:BOOLEAN,col4:DATETIME,col5:STRING partitions=col1:BIGINT,col2:DOUBLE,col3:BOOLEAN,col4:DATETIME,col5:STRING
data文件示例:
1,1.1,true,2015-06-04 11:22:42 896,hello world
N,N,N,N,N
8.4 UDF开发插件介绍
(1). Local Debug UDF程序
在本章节我们将介绍如何使用Eclipse插件开发并在本地运行UDF。UDAF和UDTF的编写执行过程与UDF类似,均可参考UDF的示例介绍完成。ODPS Eclipse插件提供两种运行UDF的方式,菜单栏和右键单击快速运行方式。
菜单栏运行
从菜单栏选择Run-->Run Configurations...弹出如下对话框。
image.png

用户可以新建一个Run Configuration,选择运行的UDF类及类型、选择ODPS Project、填写输入表信息。
image.png

上述配置中,"Table"表示UDF的输入表,"Partitions"表示读取某个分区下的数据,分区由逗号分隔,"Columns"表示列,将依次作为UDF函数的参数被传入,列名由逗号分隔。
点击"Run"运行,运行结果将显示在控制台中。
image.png

右键单击快速运行
选中一个udf.java文件(比如:UDFExample.java)并单击鼠标右键,选择"Run As" -> "Run UDF|UDAF|UDTF"。
image.png
image.png

填入配置信息。
image.png

上述配置中,"Table"表示UDF的输入表,"Partitions"表示读取某个分区下的数据,分区由逗号分隔,"Columns"表示列,将依次作为UDF函数的参数被传入,列名由逗号分隔。
点击"Finish"后,运行UDF,获得输出结果。
(2). 运行用户自定义UDF程序
右击一个工程并选择"New-->UDF"(或者选择菜单栏File-->New-->UDF)。
填写UDF类名然后点击"Finish"。在对应的src目录下生成与UDF类名同名的Java文件,编辑该java文件内容。
package odps;

import com.aliyun.odps.udf.UDF;

public class UserUDF extends UDF {

  /**
   * project: example_project 
   * table: wc_in1 
   * columns: col1,col2
   * 
   */
  public String evaluate(String a, String b) {
    return "ss2s:" + a + "," + b;
  }

}
右击该java文件(如UserUDF.java),选择"Run As",再选择"ODPS UDF|UDTF|UDAF"。

配置如下对话框。

点击"finish",得出结果。
ss2s:A1,A2
ss2s:A1,A2
ss2s:A1,A2
ss2s:A1,A2

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
目录
相关文章
|
2月前
|
SQL 分布式计算 DataWorks
DataWorks产品使用合集之如何开发ODPS Spark任务
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
1月前
|
SQL 分布式计算 大数据
代码编码原则和规范大数据开发
此文档详细规定了SQL代码的编写规范,包括代码的清晰度,执行效率,以及注释的必要性。它强调所有SQL关键字需统一使用大写或小写,并禁止使用select *操作。此外,还规定了代码头部的信息模板,字段排列方式,INSERT, SELECT子句的格式,运算符的使用,CASE语句编写规则,查询嵌套规范,表别名定义,以及SQL注释的添加方法。这些规则有助于提升代码的可读性和可维护性。
16 0
|
1月前
|
SQL 分布式计算 大数据
大数据开发SQL代码编码原则和规范
这段SQL编码原则强调代码的功能完整性、清晰度、执行效率及可读性,通过统一关键词大小写、缩进量以及禁止使用模糊操作如select *等手段提升代码质量。此外,SQL编码规范还详细规定了代码头部信息、字段与子句排列、运算符前后间隔、CASE语句编写、查询嵌套、表别名定义以及SQL注释的具体要求,确保代码的一致性和维护性。
27 0
|
2月前
|
大数据 RDMA
神龙大数据加速引擎MRACC问题之MRACC-Spark利用eRDMA近网络优化插件来提升性能如何解决
神龙大数据加速引擎MRACC问题之MRACC-Spark利用eRDMA近网络优化插件来提升性能如何解决
34 0
|
3月前
|
SQL 分布式计算 MaxCompute
SQL开发问题之对于ODPS中的UNION操作,执行计划的问题如何解决
SQL开发问题之对于ODPS中的UNION操作,执行计划的问题如何解决
|
3月前
|
分布式计算 安全 大数据
HAS插件式Kerberos认证框架:构建安全可靠的大数据生态系统
在教育和科研领域,研究人员需要共享大量数据以促进合作。HAS框架可以提供一个安全的数据共享平台,确保数据的安全性和合规性。
|
2月前
|
数据可视化
Echarts数据可视化开发| 智慧数据平台
Echarts数据可视化开发| 智慧数据平台
|
2月前
|
数据可视化
Echarts数据可视化大屏开发| 大数据分析平台
Echarts数据可视化大屏开发| 大数据分析平台
|
3月前
|
存储 分布式计算 MaxCompute
构建NLP 开发问题之如何支持其他存储介质(如 HDFS、ODPS Volumn)在 transformers 框架中
构建NLP 开发问题之如何支持其他存储介质(如 HDFS、ODPS Volumn)在 transformers 框架中
|
2月前
|
分布式计算 大数据 Java
Scala 入门指南:从零开始的大数据开发
Scala 入门指南:从零开始的大数据开发

推荐镜像

更多
下一篇
无影云桌面