Hadoop HDFS编程 API入门系列之RPC版本2(九)

简介:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

代码

复制代码
 1 package zhouls.bigdata.myWholeHadoop.RPC.rpc2;
 2 
 3 public class LoginServiceImpl implements LoginServiceInterface {
 4 
 5     @Override
 6     public String login(String username, String password) {
 7         
 8         return username + " logged in successfully!";
 9     }
10 
11 }
复制代码

 

 

 

 

 

 

 

复制代码
 1 package zhouls.bigdata.myWholeHadoop.RPC.rpc2;
 2 
 3 public class LoginServiceImpl implements LoginServiceInterface {
 4 
 5     @Override
 6     public String login(String username, String password) {
 7         
 8         return username + " logged in successfully!";
 9     }
10 
11 }
复制代码

 

 

 

 

 

 

复制代码
 1 package zhouls.bigdata.myWholeHadoop.RPC.rpc2;
 2 
 3 import java.io.IOException;
 4 
 5 import org.apache.hadoop.HadoopIllegalArgumentException;
 6 import org.apache.hadoop.conf.Configuration;
 7 import org.apache.hadoop.ipc.RPC;
 8 import org.apache.hadoop.ipc.RPC.Builder;
 9 import org.apache.hadoop.ipc.RPC.Server;
10 
11 public class Starter {
12 
13     public static void main(String[] args) throws HadoopIllegalArgumentException, IOException {
14         
15         
16         Builder builder = new RPC.Builder(new Configuration());
17         
18         builder.setBindAddress("HadoopMaster").setPort(10000).setProtocol(LoginServiceInterface.class).setInstance(new LoginServiceImpl());
19         
20         Server server = builder.build();
21         
22         server.start();
23         
24         
25         
26     }
27     
28     
29 }
复制代码

 


本文转自大数据躺过的坑博客园博客,原文链接:http://www.cnblogs.com/zlslch/p/6175652.html,如需转载请自行联系原作者

目录
打赏
0
0
0
0
65
分享
相关文章
|
11月前
|
HDFS的API操作
HDFS的API操作
117 0
Rpc编程系列文章第二篇:RPC框架设计目标
Rpc编程系列文章第二篇:RPC框架设计目标
Rpc编程系列文章第三篇:Hessian RPC一个老的RPC框架
Rpc编程系列文章第三篇:Hessian RPC一个老的RPC框架
面向开发者的Hadoop编程指南
【8月更文第28天】Hadoop是一个开源软件框架,用于分布式存储和处理大规模数据集。它由Hadoop分布式文件系统(HDFS)和MapReduce编程模型组成。本指南旨在帮助初学者和中级开发者快速掌握Hadoop的基本概念和编程技巧,并通过一些简单的示例来加深理解。
379 0
Hadoop MapReduce编程
该教程指导编写Hadoop MapReduce程序处理天气数据。任务包括计算每个城市ID的最高、最低气温、气温出现次数和平均气温。在读取数据时需忽略表头,且数据应为整数。教程中提供了环境变量设置、Java编译、jar包创建及MapReduce执行的步骤说明,但假设读者已具备基础操作技能。此外,还提到一个扩展练习,通过分区功能将具有相同尾数的数字分组到不同文件。
97 1
|
10月前
|
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
186 0
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
Spark编程实验一:Spark和Hadoop的安装使用
Spark编程实验一:Spark和Hadoop的安装使用
579 4
Hadoop生态系统详解:HDFS与MapReduce编程
Apache Hadoop是大数据处理的关键,其核心包括HDFS(分布式文件系统)和MapReduce(并行计算框架)。HDFS为大数据存储提供高容错性和高吞吐量,采用主从结构,通过数据复制保证可靠性。MapReduce将任务分解为Map和Reduce阶段,适合大规模数据集的处理。通过代码示例展示了如何使用MapReduce实现Word Count功能。HDFS和MapReduce的结合,加上YARN的资源管理,构成处理和分析大数据的强大力量。了解和掌握这些基础对于有效管理大数据至关重要。【6月更文挑战第12天】
369 0
大数据实战——基于Hadoop的Mapreduce编程实践案例的设计与实现
大数据实战——基于Hadoop的Mapreduce编程实践案例的设计与实现
2206 0
Hadoop【基础知识 02】【分布式计算框架MapReduce核心概念+编程模型+combiner&partitioner+词频统计案例解析与进阶+作业的生命周期】(图片来源于网络)
【4月更文挑战第3天】Hadoop【基础知识 02】【分布式计算框架MapReduce核心概念+编程模型+combiner&partitioner+词频统计案例解析与进阶+作业的生命周期】(图片来源于网络)
372 0

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等