《PySpark大数据分析实战》-01.关于数据

简介: 大家好!今天为大家分享的是《PySpark大数据分析实战》第1章第1节的内容:关于数据。

📋 博主简介

  • 💖 作者简介:大家好,我是wux_labs。😜
    热衷于各种主流技术,热爱数据科学、机器学习、云计算、人工智能。
    通过了TiDB数据库专员(PCTA)、TiDB数据库专家(PCTP)、TiDB数据库认证SQL开发专家(PCSD)认证。
    通过了微软Azure开发人员、Azure数据工程师、Azure解决方案架构师专家认证。
    对大数据技术栈Hadoop、Hive、Spark、Kafka等有深入研究,对Databricks的使用有丰富的经验。
  • 📝 个人主页:wux_labs,如果您对我还算满意,请关注一下吧~🔥
  • 🎉 请支持我:欢迎大家 点赞👍+收藏⭐️+吐槽📝,您的支持是我持续创作的动力~🔥

《PySpark大数据分析实战》-01.关于数据

前言

大家好!今天为大家分享的是《PySpark大数据分析实战》第1章第1节的内容:关于数据。

图书在:当当京东机械工业出版社以及各大书店有售!

关于数据

随着进入互联网时代,我们便进入了一个数据大爆炸的时代。由于互联网整合资源的能力在不断提高,越来越多的社会资源被网络化和数字化,数据可以承载的价值在不断提高,大数据正在成为整个互联网技术发展的重要动力,正在成为企业重要的生产资料之一。大数据主要呈现出几个层面的特点:

1)体量大(Volume)。普通人日常接触到的数字化信息,一本小说、书籍的大小只有几百KB,一首MP3歌曲的大小只有几MB,一部电影的大小有几百MB到几GB,想要存储日常生活、工作中的资料,几TB就已经能满足大部分人的需求了。但是在企业中就不同了,电商网站每天的商品交易数据能够达到几十TB,社交网站用户每天产生的数据能达到几百TB。互联网企业的数据已经达到PB、EB甚至ZB级别。

2)种类多(Variety)。广泛的数据来源决定了大数据种类的多样性,任何形式的数据都可以产生作用。这其中包括存储在关系型数据库中的结构化数据,也包括文本、图片、音频、视频等非结构化数据。

3)速度快(Velocity)。大数据的产生非常迅速,这些数据都需要快速及时地处理,因为这些海量的数据中大部分数据的价值并不高,花费大量的资本去存储这些数据并不划算。而对于有价值的数据则需要快速地生成分析结果,用于指导生产生活实践。

4)价值密度低(Value)。在这些海量的数据中,有价值的数据所占的比例很小,并且分散在这些海量的数据中,其价值密度远低于传统关系型数据库中已有的数据。大数据的最大价值在于通过从海量数据中挖掘出对未来趋势与预测分析有价值的数据。

5)真实性(Veracity)。大数据的真实性由IBM提出,认为互联网上留下的都是人类行为的真实电子踪迹,能真实地反映人们的行为。但是人们后来发现,互联网的虚拟性和隐匿性,导致互联网上存在大量虚假的、错误的数据。不同领域、不同来源的数据,可靠性是有差异的,舆情数据的真实性尤其值得考量。因此,这个特点在后来被悄然隐去了。大数据中存在一定程度的噪声和不确定性,在处理和分析时需要考虑数据的真实性和可靠性。

6)可视化(Visualization)。大数据所面临的数据量大、数据来源多样、数据复杂多变,这些都使得人们难以直接了解和处理数据。因此,大数据分析需要注重结果的可视化,这也是大数据与传统数据分析不同的一个重要特点。可视化结果更直观、更易懂、更能形象的解释数据内在联系。大数据可视化需要呈现出高质量的图形和直观的视觉效果,使得数据分析和决策更加精准和有力。

想要从这些海量数据中提取有价值的数据,我们必须想方设法好好地存储和分析这些数据。大数据的基本处理流程,主要包括数据采集、存储管理、处理分析、结果呈现等环节。

谷歌作为一个搜索引擎,每天要爬取海量的数据,因此需要解决数据的存储问题。数据通常使用硬盘来进行存储,一块硬盘的容量总是有限的,虽然硬盘的存储容量多年来一直在提升,但对于海量的数据依然无法用一块硬盘来存储。虽然可以提高硬盘的存储容量,但更大的容量意味着需要更长的数据读取时间,减少数据读取时间的办法是减少一块硬盘上存储的数据量。当无法用一块硬盘来存储所有数据时,我们不必要想方设法打造一块超级硬盘,而是应该千方百计综合利用更多的硬盘来进行存储。每一块硬盘存储一部分数据,更多的硬盘一起就可以存储下海量的数据,这样不仅能存储海量的数据,而且读取数据的时候还可以同时从多块硬盘上读取,缩短了读取所有数据需要的时间。数据存储的问题是有解决方案了,但是对于这种存储方案还有更多的问题需要解决:当需要读取一个文件的时候,需要从哪块硬盘进行读取?当遇到一个超大文件,以至于一块硬盘都存放不下而被拆分到多块硬盘进行存储,需要从哪几块硬盘进行读取才能获得一个完整的文件?当某一块硬盘发生故障,硬盘上的数据无法读取时,如何保证数据不丢失?为了满足谷歌迅速增长的数据处理需求,谷歌实现了一个谷歌分布式文件系统(Google File System,GFS),并于2003年发表了一篇论文The Google File System专门描述了GFS的产品架构。

对于爬取回来的海量数据如何呈现给用户,这就涉及到海量数据的运算,例如需要对数据进行聚合、排序等。为了解决其搜索引擎中的大规模网页数据的并行化处理,谷歌提出了分布式计算模型MapReduce。MapReduce的灵感来源于函数式编程语言中的内置函数map()和reduce()。在函数式编程语言中,map()函数对集合中的每个元素做计算,reduce()函数对集合中的每个元素做迭代。集合中的元素能够做迭代,说明集合中的元素是相关的,比如具有相同的数据类型,并且reduce()函数的返回值也与集合中的元素具有相同的数据类型。将map()函数和reduce()函数结合起来,就可以理解为map()函数将杂乱无章的原始数据经过计算后得到具有相关性的数据,这些数据再由reduce()函数进行迭代得到最终的结果。在MapReduce计算模型里,Map阶段将杂乱无章的原始数据按照某种特征归纳起来,Reduce阶段就可以对具有相同特征的数据进行迭代计算,得到最终的结果。在2004年,谷歌发表了一篇论文MapReduce: Simplified Data Processing on Large Clusters向全世界介绍了他们的MapReduce系统。

结束语

好了,感谢大家的关注,今天就分享到这里了,更多详细内容,请阅读原书或持续关注专栏。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
9天前
|
分布式计算 DataWorks NoSQL
MaxCompute产品使用合集之一张表如果想只保留近七天的数据,应该如何设置
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
9天前
|
数据采集 DataWorks 定位技术
DataWorks产品使用合集之开发环境执行离线同步不立即更新数据,是什么原因
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
7天前
|
SQL 关系型数据库 MySQL
基于Hive的天气情况大数据分析系统(通过hive进行大数据分析将分析的数据通过sqoop导入到mysql,通过Django基于mysql的数据做可视化)
基于Hive的天气情况大数据分析系统(通过hive进行大数据分析将分析的数据通过sqoop导入到mysql,通过Django基于mysql的数据做可视化)
|
8天前
|
分布式计算 DataWorks 关系型数据库
DataWorks操作报错合集之数据源同步时,使用脚本模式采集mysql数据到odps中,使用querySql方式采集数据,在脚本中删除了Reader中的column,但是datax还是报错OriginalConfPretreatmentUtil - 您的配置有误。如何解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
8天前
|
存储 分布式计算 大数据
MaxCompute产品使用合集之读取OSS数据出现重复的情况是什么导致的
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
8天前
|
存储 分布式计算 Java
MaxCompute产品使用合集之元仓包含哪些内容什么数据算是元仓表
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
8天前
|
存储 分布式计算 大数据
MaxCompute产品使用合集之是否支持创建OSS外部表为分区表,并访问OSS上以分区方式存储的数据
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
8天前
|
存储 分布式计算 大数据
MaxCompute产品使用合集之在sql里调用自定义的udf时,设置一次同时处理的数据行数,是并行执行还是串行执行的
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
8天前
|
机器学习/深度学习 分布式计算 大数据
MaxCompute产品使用合集之如何对数据加密解密
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
9天前
|
分布式计算 DataWorks NoSQL
DataWorks操作报错合集之从MongoDB同步数据到MaxCompute(ODPS)时,出现报错,该怎么解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
DataWorks操作报错合集之从MongoDB同步数据到MaxCompute(ODPS)时,出现报错,该怎么解决

热门文章

最新文章