招募贴:Hadoop专业解决方案招募义务翻译人员

简介: 一、招募启事 招募贴:Hadoop专业解决方案招募义务翻译人员,英文原著名称:《Wrox.Professional.Hadoop.Solutions》。愿意参与到此项工作中来的请加群:313702010 欢迎大家踊跃报名。

一、招募启事

招募贴:Hadoop专业解决方案招募义务翻译人员,英文原著名称:《Wrox.Professional.Hadoop.Solutions》。愿意参与到此项工作中来的请加群:313702010

欢迎大家踊跃报名。

二、图书大纲

中文部分:

chapter1:大数据和Hadoop生态圈

  1.1 当大数据遇到Hadoop
  1.2 Hadoop生态圈
  1.3 Hadoop核心组件
  1.4 Hadoop版本分发
  1.5 基于Hadoop开发企业级应用

chapter2:数据存储之Hadoop

  2.1 HDFS
  2.2 HBase
  2.3 HDFS和HBase相结合,进行实际数据存储
  2.4 使用Apache Avro
  2.5 使用HCatalog管理元数据
  2.6 Hadoop数据组织模式设计

chapter3:数据计算之MapReduce

  3.1 认识MapReduce
  3.2 第一个MapReduce应用
  3.3 设计MapReduce实现
  3.4 总结

chapter4:自定义MapReduce执行

  4.1 通过InputFormat控制MapReduce执行
  4.2 使用自定义RecordReaders读取你的数据
  4.3 使用OutputFormats组织输出文件
  4.4 使用Combiner优化MapReduce执行
  4.5 使用Partitioners控制Reducer执行
  4.6 使用非Java语言访问Hadoop
  4.7 总结

chapter5:构建可重用的MapReduce应用

  5.1 MapReduce程序单元测试
  5.2 Eclipse本地应用程序测试
  5.3 使用日志进行Hadoop测试
  5.4 使用Job Counters计数
  5.5 MapReduce防御式编程
  5.6 总结

chapter6:自动数据处理之Oozie

chapter7:使用Oozie

chapter8:Oozie高级功能

chapter9:实时Hadoop

  9.1 现实世界中的实时应用系统
  9.2 使用HBase实现实时应用系统
  9.3 使用特定的实时Hadoop查询系统
  9.4 使用基于Hadoop的事件处理系统
  9.5 总结

chapter10:Hadoop安全

  10.1 历史回顾:理解Hadoop安全机制的挑战
  10.2 身份认证
  10.3 权限管理
  10.4 Oozie身份认证和权限管理
  10.5 网络加密
  10.6 使用Rhino增强安全机制
  10.7 Hadoop安全最佳实践
  10.8 总结

chapter11:在AWS上运行Hadoop应用程序

chapter12:为Hadoop实现构建企业级安全解决方案

chapter13:Hadoop的发展趋势

英文部分:


作者:张子良
出处:http://www.cnblogs.com/hadoopdev
本文版权归作者所有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。

相关文章
|
3月前
|
存储 分布式计算 资源调度
Hadoop小文件解决方案
Hadoop小文件解决方案
|
3月前
|
消息中间件 分布式计算 Hadoop
利用Hadoop进行实时数据分析的挑战与解决方案
【8月更文第28天】随着大数据技术的快速发展,企业和组织面临着越来越复杂的实时数据处理需求。Hadoop 作为一种分布式存储和处理大数据的框架,虽然擅长于批处理任务,但在处理实时数据流时存在一定的局限性。为了克服这些限制,Hadoop 经常与其他实时处理框架(如 Apache Kafka 和 Apache Storm)结合使用。本文将探讨如何利用 Hadoop 结合 Kafka 和 Storm 实现近实时的数据处理,并提供相关的代码示例。
387 0
|
6月前
|
SQL 数据采集 分布式计算
Hadoop和Hive中的数据倾斜问题及其解决方案
Hadoop和Hive中的数据倾斜问题及其解决方案
108 0
|
SQL 存储 分布式计算
大数据Hadoop小文件问题与企业级解决方案
大数据Hadoop小文件问题与企业级解决方案
89 0
|
消息中间件 SQL 运维
【大数据开发运维解决方案】hadoop+kylin安装及官方cube/steam cube案例文档
对于hadoop+kylin的安装过程在上一篇文章已经详细的写了, 请读者先看完上一篇文章再看本本篇文章,本文主要大致介绍kylin官官方提供的常规批量cube创建和kafka+kylin流式构建cube(steam cube)的操作过程,具体详细过程请看官方文档。
【大数据开发运维解决方案】hadoop+kylin安装及官方cube/steam cube案例文档
|
分布式计算 运维 Hadoop
【大数据开发运维解决方案】Hadoop2.7.6+Spark单机伪分布式安装
一、安装spark依赖的Scala 1.1 下载和解压缩Scala 下载地址: 点此下载 或则直接去官网挑选下载: 官网连接 在Linux服务器的opt目录下新建一个名为scala的文件夹,并将下载的压缩包上载上去: [root@hadoop opt]# cd /usr/ [root@hadoop usr]# mkdir scala [root@hadoop usr]# cd scala/ [ro...
【大数据开发运维解决方案】Hadoop2.7.6+Spark单机伪分布式安装
|
SQL 消息中间件 分布式计算
【大数据开发运维解决方案】Hadoop2.7.6+Spark2.4.4+Scala2.11.12+Hudi0.5.2单机伪分布式安装
1、本文档使用的基础hadoop环境是基于本人写的另一篇文章的基础上新增的spark和hudi的安装部署文档,基础环境部署文档 2、整篇文章配置相对简单,走了一些坑,没有写在文档里,为了像我一样的小白看我的文档,按着错误的路径走了,文章整体写的较为详细,按照文章整体过程来做应该不会出错,如果需要搭建基础大数据环境的,可以看上面本人写的hadoop环境部署文档,写的较为详细。 3、关于spark和hudi的介绍这里不再赘述,网上和官方文档有很多的文字介绍,本文所有安装所需的介质或官方文档均已给出可以直接下载或跳转的路径,方便各位免费下载与我文章安装的一致版本的介质。 4、下面是本实验安装完成后本
【大数据开发运维解决方案】Hadoop2.7.6+Spark2.4.4+Scala2.11.12+Hudi0.5.2单机伪分布式安装
|
SQL 分布式计算 运维
【大数据开发运维解决方案】sqoop1.4.7的安装及使用(hadoop2.7环境)
Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql、postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
【大数据开发运维解决方案】sqoop1.4.7的安装及使用(hadoop2.7环境)
|
分布式计算 运维 Hadoop
【大数据开发运维解决方案】hadoop fs常用命令案例解释
hadoop fs -mkdir hadoop fs -ls hadoop fs -put hadoop fs -get hadoop fs -get [-ignorecrc] [-crc] hadoop fs -cat hadoop fs -cp hadoop fs -mv hadoop fs -rm(-rm -r) hadoop fs -rm -r -skipTrash hadoop fs -expunge hadoop fs -tail hadoop fs -du -h hadoop fs -du -
【大数据开发运维解决方案】hadoop fs常用命令案例解释
|
分布式计算 Hadoop Java
关于尚硅谷Hadoop-报错解决方案日志
以后都会将学习Hadoop中遇到的问题写到这里,供自己参考,能帮到大家更好