解决Eclipse中运行WordCount出现 java.lang.ClassNotFoundException: org.apache.hadoop.examples.WordCount$TokenizerMapper问题

简介: 原文:http://tonymomo.pixnet.net/blog/post/62329497 1 package org.apache.hadoop.examples; 2 3 import java.

原文:http://tonymomo.pixnet.net/blog/post/62329497

 1 package org.apache.hadoop.examples;
 2 
 3 import java.io.File;
 4 import java.io.FileInputStream;
 5 import java.io.FileOutputStream;
 6 import java.io.IOException;
 7 import java.net.URL;
 8 import java.net.URLClassLoader;
 9 import java.util.ArrayList;
10 import java.util.List;
11 import java.util.jar.JarEntry;
12 import java.util.jar.JarOutputStream;
13 import java.util.jar.Manifest;
14 
15 public class EJob {
16 
17     // To declare global field
18     private static List<URL> classPath = new ArrayList<URL>();
19 
20     // To declare method
21     public static File createTempJar(String root) throws IOException {
22         if (!new File(root).exists()) {
23             return null;
24         }
25         Manifest manifest = new Manifest();
26         manifest.getMainAttributes().putValue("Manifest-Version", "1.0");
27         final File jarFile = File.createTempFile("EJob-", ".jar", new File(
28                 System.getProperty("java.io.tmpdir")));
29 
30         Runtime.getRuntime().addShutdownHook(new Thread() {
31             public void run() {
32                 jarFile.delete();
33             }
34         });
35 
36         JarOutputStream out = new JarOutputStream(
37                 new FileOutputStream(jarFile), manifest);
38         createTempJarInner(out, new File(root), "");
39         out.flush();
40         out.close();
41         return jarFile;
42     }
43 
44     private static void createTempJarInner(JarOutputStream out, File f,
45             String base) throws IOException {
46         if (f.isDirectory()) {
47             File[] fl = f.listFiles();
48             if (base.length() > 0) {
49                 base = base + "/";
50             }
51             for (int i = 0; i < fl.length; i++) {
52                 createTempJarInner(out, fl[i], base + fl[i].getName());
53             }
54         } else {
55             out.putNextEntry(new JarEntry(base));
56             FileInputStream in = new FileInputStream(f);
57             byte[] buffer = new byte[1024];
58             int n = in.read(buffer);
59             while (n != -1) {
60                 out.write(buffer, 0, n);
61                 n = in.read(buffer);
62             }
63             in.close();
64         }
65     }
66 
67     public static ClassLoader getClassLoader() {
68         ClassLoader parent = Thread.currentThread().getContextClassLoader();
69         if (parent == null) {
70             parent = EJob.class.getClassLoader();
71         }
72         if (parent == null) {
73             parent = ClassLoader.getSystemClassLoader();
74         }
75         return new URLClassLoader(classPath.toArray(new URL[0]), parent);
76     }
77 
78     public static void addClasspath(String component) {
79 
80         if ((component != null) && (component.length() > 0)) {
81             try {
82                 File f = new File(component);
83 
84                 if (f.exists()) {
85                     URL key = f.getCanonicalFile().toURL();
86                     if (!classPath.contains(key)) {
87                         classPath.add(key);
88                     }
89                 }
90             } catch (IOException e) {
91             }
92         }
93     }
94 
95 }

mian方法中添加:

File jarFile = EJob.createTempJar("bin");

EJob.addClasspath("/usr/hadoop/conf");

ClassLoader classLoader = EJob.getClassLoader();

Thread.currentThread().setContextClassLoader(classLoader);

。。。

((JobConf) job.getConfiguration()).setJar(jarFile.toString()); 

如果本文对您有帮助,点一下右下角的“推荐”
目录
相关文章
|
7天前
|
数据库连接 PHP Apache
PHP在Apache中如何运行?
PHP在Apache中如何运行?
15 5
|
1月前
|
分布式计算 大数据 Java
大数据-86 Spark 集群 WordCount 用 Scala & Java 调用Spark 编译并打包上传运行 梦开始的地方
大数据-86 Spark 集群 WordCount 用 Scala & Java 调用Spark 编译并打包上传运行 梦开始的地方
23 1
大数据-86 Spark 集群 WordCount 用 Scala & Java 调用Spark 编译并打包上传运行 梦开始的地方
|
1月前
|
SQL 存储 分布式计算
Hadoop-16-Hive HiveServer2 HS2 允许客户端远程执行HiveHQL HCatalog 集群规划 实机配置运行
Hadoop-16-Hive HiveServer2 HS2 允许客户端远程执行HiveHQL HCatalog 集群规划 实机配置运行
41 3
|
1月前
|
分布式计算 资源调度 Hadoop
Hadoop-10-HDFS集群 Java实现MapReduce WordCount计算 Hadoop序列化 编写Mapper和Reducer和Driver 附带POM 详细代码 图文等内容
Hadoop-10-HDFS集群 Java实现MapReduce WordCount计算 Hadoop序列化 编写Mapper和Reducer和Driver 附带POM 详细代码 图文等内容
88 3
|
1月前
|
分布式计算 资源调度 Hadoop
Hadoop-05-Hadoop集群 集群WordCount 超详细 真正的分布式计算 上传HDFS MapReduce计算 YRAN查看任务 上传计算下载查看
Hadoop-05-Hadoop集群 集群WordCount 超详细 真正的分布式计算 上传HDFS MapReduce计算 YRAN查看任务 上传计算下载查看
47 1
|
3月前
|
存储 分布式计算 算法
探索Hadoop的三种运行模式:单机模式、伪分布式模式和完全分布式模式
在配置Hadoop集群之前,了解这三种模式的特点、适用场景和配置差异是非常重要的。这有助于用户根据个人需求和资源情况,选择最适合自己的Hadoop运行模式。在最初的学习和开发阶段,单机模式和伪分布式模式能为用户提供便利和成本效益。进而,当用户要处理大规模数据集时,完全分布式模式将是理想的选择。
181 2
|
3月前
|
消息中间件 Java Kafka
【Azure 事件中心】在微软云中国区 (Mooncake) 上实验以Apache Kafka协议方式发送/接受Event Hubs消息 (Java版)
【Azure 事件中心】在微软云中国区 (Mooncake) 上实验以Apache Kafka协议方式发送/接受Event Hubs消息 (Java版)
|
3月前
|
分布式计算 Hadoop Java
Hadoop_MapReduce中的WordCount运行详解
MapReduce的WordCount程序在分布式系统中计算大数据集中单词出现的频率时,提供了一个可以复用和可伸缩的解决方案。它体现了MapReduce编程模型的强大之处:简单、可靠且将任务自动分布到一个集群中去执行。它首先运行一系列的Map任务来处理原始数据,然后通过Shuffle和Sort机制来组织结果,最后通过运行Reduce任务来完成最终计算。因此,即便数据量非常大,通过该模型也可以高效地进行处理。
92 1
|
3月前
|
存储 分布式计算 Hadoop
Hadoop 运行的三种模式
【8月更文挑战第31天】
332 0

推荐镜像

更多