BigData:大数据开发的简介、核心知识(linux基础+Java/Python编程语言+Hadoop{HDFS、HBase、Hive}+Docker)、经典场景应用之详细攻略

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: BigData:大数据开发的简介、核心知识(linux基础+Java/Python编程语言+Hadoop{HDFS、HBase、Hive}+Docker)、经典场景应用之详细攻略

大数据简介


         大数据(big data),IT行业术语,是指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。


Gartner定义的大数据:“大数据”是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力来适应海量、高增长率和多样化的信息资产。

MGI麦肯锡全球研究所定义的大数据:一种规模大到在获取、存储、管理、分析方面大大超出了传统数据库软件工具能力范围的数据集合,具有海量的数据规模、快速的数据流转、多样的数据类型和价值密度低四大特征。


1、大数据的单位


         大数据需要特殊的技术,以有效地处理大量的容忍经过时间内的数据。适用于大数据的技术,包括大规模并行处理(MPP)数据库、数据挖掘、分布式文件系统、分布式数据库、云计算平台、互联网和可扩展的存储系统。最小的基本单位是bit,按顺序给出所有单位:bit、Byte、KB、MB、GB、TB、PB、EB、ZB、YB、BB、NB、DB。它们按照进率1024(2的十次方)来计算:


1 Byte =8 bit

1 KB = 1,024 Bytes = 8192 bit

1 MB = 1,024 KB = 1,048,576 Bytes

1 GB = 1,024 MB = 1,048,576 KB

1 TB = 1,024 GB = 1,048,576 MB

1 PB = 1,024 TB = 1,048,576 GB

1 EB = 1,024 PB = 1,048,576 TB

1 ZB = 1,024 EB = 1,048,576 PB

1 YB = 1,024 ZB = 1,048,576 EB

1 BB = 1,024 YB = 1,048,576 ZB

1 NB = 1,024 BB = 1,048,576 YB

1 DB = 1,024 NB = 1,048,576 BB


2、大数据的5V特点——Volume、Velocity、Variety、Value、Veracity


         在维克托·迈尔-舍恩伯格及肯尼斯·库克耶编写的《大数据时代》中大数据指不用随机分析法(抽样调查)这样捷径,而采用所有数据进行分析处理。大数据的5V特点(IBM提出):Volume(大量)、Velocity(高速)、Variety(多样)、Value(低价值密度)、Veracity(真实性)。



3、大数据的价值体现


        大数据的主要价值——辅助决策。利用大数据分析,能够总结经验、发现规律、预测趋势,这些都可以为辅助决策服务。只有掌握的数据信息越多,人类的决策才能更加科学、精确、合理。从这个方面看,也可以说数据本身不产生价值,大数据必须和其他具体的领域、行业相结合,能够给企业决策提供帮助之后,才具有价值。很多企业都可以借助大数据,提升管理、决策水平,提升经济效益。


(1)对大量消费者提供产品或服务的企业可以利用大数据进行精准营销;

(2)做小而美模式的中小微企业可以利用大数据做服务转型;

(3)面临互联网压力之下必须转型的传统企业需要与时俱进充分利用大数据的价值。




4、大数据与云计算密不可分


         大数据与云计算的关系就像一枚硬币的正反面一样密不可分。大数据必然无法用单台的计算机进行处理,必须采用分布式架构。它的特色在于对海量数据进行分布式数据挖掘。但它必须依托云计算的分布式处理、分布式数据库和云存储、虚拟化技术。

         随着云时代的来临,大数据(Big data)也吸引了越来越多的关注。分析师团队认为,大数据(Big data)通常用来形容一个公司创造的大量非结构化数据和半结构化数据,这些数据在下载到关系型数据库用于分析时会花费过多时间和金钱。大数据分析常和云计算联系到一起,因为实时的大型数据集分析需要像MapReduce一样的框架来向数十、数百或甚至数千的电脑分配工作。





以Hadoop生态系统为基础带你了解大数据必须掌握的那些知识


大数据技术应用场景


          大数据技术可以应用在各个领域,比如公安大数据、交通大数据、医疗大数据、就业大数据、环境大数据、图像大数据、视频大数据等等,应用范围非常广泛,大数据技术已经像空气一样渗透在生活的方方面面。大数据技术的出现将社会带入了一个高速发展的时代,这不仅是信息技术的终极目标,也是人类社会发展管理智能化的核心技术驱动力。



1、经典应用场景


(1)及时解析故障、问题和缺陷的根源,每年可能为企业节省数十亿美元。

(2)为成千上万的快递车辆规划实时交通路线,躲避拥堵。

(3)分析所有SKU,以利润最大化为目标来定价和清理库存。

(4)根据客户的购买习惯,为其推送他可能感兴趣的优惠信息。

(5)从大量客户中快速识别出金牌客户。

(6)使用点击流分析和数据挖掘来规避欺诈行为。



大数据核心技术


1、linux基础


        Linux是一种自由和开放源代码的bai类duUnix操作系统,以Unix为原型改造的,一个多用户多任务的操作系统,任何人都可以修改其代码和页面,主要的目的就是为了不收商业化的限制,服务器部署在linux系统上会更加高效稳定、安全。云计算、大数据的发展是基于开源软件的平台,Linux占据优势, 大数据的分布式集群( Hadoop,Spark )都是搭建在多台 Linux 系统上,对集群的执行命令都是在 Linux 终端窗口输入的。

        在大数据体系中,基本都是开源软件,这些开源软件都是在开源的linux系统上运行的,所以,基本的linux操作一定要会,比如:


系统管理操作

基本的用户管理

文件权限的操作

文件系统操作

shell编程

推荐文章:Linux:Linux系统新手教程—linux系统使用攻略之常见操作、常用快捷键



2、编程语言——Java、Python


基础需要Java语言,数据科学处理需要Python语言等等。




3、分布式存储框架——Hadoop生态系统+列式存储数据库HBase


学习大数据,必须学习大数据核心知识Hadoop生态系统


HDFS技术:

HBase技术:

Hive数据仓库工具:

Spark大数据离线分析:

Sqoop使用流程

数据实时分析Storm

消息订阅分发系统Kafka等

推荐文章:

BigData之Hadoop:Hadoop的简介、深入理解、下载、案例应用之详细攻略

BigData之Hbase:Hbase数据管理的简介、下载、案例应用之详细攻略

BigData之Hive:Hive数据管理的简介、下载、案例应用之详细攻略

BigData之MongoDB:MongoDB基于分布式文件存储数据库的简介、下载、案例应用之详细攻略

BigData之Spark:Spark计算引擎的简介、下载、经典案例之详细攻略




4、资源调度框架——Docker


         Docker可是整整火了最近一两年。各个公司都在发力基于Docker的容器解决方案,最有名的开源容器调度框架就是K8S了,但同样著名的还有Hadoop的YARN和Apache Mesos。


推荐文章:Docker:Docker的简介、安装、使用方法之详细攻略

https://yunyaniu.blog.csdn.net/article/details/103456785

 


相关实践学习
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
9天前
|
测试技术 API 数据库
Python反射机制在实际场景中的应用
Python 的反射机制是指在运行时动态地访问、检测和修改类和对象的属性和方法。:通过反射机制,可以动态加载和执行插件,无需在代码中硬编码每个插件的具体实现。这样可以实现插件化架构,使系统更加灵活和可扩展。:可以使用反射机制来读取和解析配置文件中的配置项,并动态地应用到程序中。这样可以实现灵活的配置管理,方便根据需要进行配置项的修改和扩展。:在自动化测试框架中,可以利用反射机制动态地加载和执行测试用例,从而实现自动化测试的灵活性和扩展性。
20 2
|
9天前
|
Linux iOS开发 MacOS
【chat-gpt问答记录】python虚拟环境venv的简介及使用
【chat-gpt问答记录】python虚拟环境venv的简介及使用
20 2
|
13天前
|
存储 IDE Linux
Python零基础入门-0 Python简介和开发环境PyCharm配置
Python零基础入门-0 Python简介和开发环境PyCharm配置
|
13天前
|
存储 数据格式 Python
Python零基础入门-11 标准库简介 —— 第二部分
Python零基础入门-11 标准库简介 —— 第二部分
|
13天前
|
XML 存储 数据库
Python零基础入门-10 标准库简介
Python零基础入门-10 标准库简介
|
1天前
|
Python
|
26天前
|
网络协议 程序员 数据库
Python简介
【6月更文挑战第1天】Python简介。
24 3
|
6天前
|
Python
Python通过函数名调用函数的几种场景
Python通过函数名调用函数的几种场景
8 0
|
14天前
|
机器学习/深度学习 存储 安全
基于YOLOv8深度学习的复杂场景下船舶目标检测系统【python源码+Pyqt5界面+数据集+训练代码】深度学习实战、目标检测
基于YOLOv8深度学习的复杂场景下船舶目标检测系统【python源码+Pyqt5界面+数据集+训练代码】深度学习实战、目标检测
|
15天前
|
分布式计算 Java Hadoop
简单的java Hadoop MapReduce程序(计算平均成绩)从打包到提交及运行
简单的java Hadoop MapReduce程序(计算平均成绩)从打包到提交及运行
16 0