网站流量日志分析--数据预处理--目的意义和 mr 编程技巧| 学习笔记

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 快速学习网站流量日志分析--数据预处理--目的意义和 mr 编程技巧

开发者学堂课程【大数据分析之企业级网站流量运营分析系统开发实战(第二阶段)网站流量日志分析--数据预处理--目的意义和 mr 编程技巧】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/694/detail/12187


网站流量日志分析--数据预处理--目的意义和 mr 编程技巧

内容介绍

一、  预处理的本质和目的

二、  数据预处理

三、  预处理的意义

四、  预处理使用的技术

五、  预处理的编程思路

 

一、  预处理的本质和目的

整个预处理当中,核心关键字就是预,预可以理解为预先处理一下。那么已经有了数据,为什么需要预先处理一下呢?

因为通过合同手段采集到的数据,往往不利于直接分析,对于项目来说,这里提供了买点收集的数据,打开参考资料,有一个叫做网站流量日志分析的项目资料,在这当中有买点收集的数据,就是之前通过页面买点收集的数据,这个数据收集到之后完成了数据从无到有的过程,一眼看上去这个数据好像是格式规整、统一概念的数据,但是认真一看,发现当中总会有一些不如人意的,比如一条数据,发现当中大量的字段丢失,这样的数据是不利于分析的,所以需要对它进行过滤操作;还有其他的,比如还有一个字段叫做时间,一眼看上去发现这个时间的格式当中有数字、有英文,里面一会是斜杠,一会是冒号来进行分割,如果要分析比如统计每个小时、统计每天的,不管是处理还是切割也好,都非常麻烦;再比如有手机号字段进行了加密,那就需要进行解密。

有种种原因使得在正式的处理之前需要对数据进行一个预先的操作,把数据当中的脏数据过滤掉、清洗掉,把一些无意义的数据都排除掉,并且进行格式规整、统一、解码、编码等操作。

因此预处理目的就出现了,需要在正式处理之前过滤一些不合规的数据,清洗没有意义的数据,并且把数据变成格式规整统一的结构化数据,便于后续的入库分析,这就是预处理的本质和目的。

 

二、  数据预处理

(1)  解释:

在正式处理数据之前对收集的数据进行预先处理的操作。

(2)  原因:

不管通过何种手段收集的数据往往都是不利于直接分析的,因为数据中存在格式规整的差异。

(3)  目的:

把不干净的数据和格式不规则的数据通过预处理清洗变成格式统一规整的结构化数据。

如果不预先处理一下,后面直接开展分析,这时候如果存在差异性就没办法了,如果再去处理是就会浪费时间,浪费精力,所以需要进行预处理。

 

三、  预处理的意义

明白原因和目的之后,以这个项目来说,看一下数据,比如说字段明显缺失的,需要进行一个删除,这里删除采用的是逻辑删除,而不是把它真的删除。比如第一个标记位来进行,比如时间要进行转换就进行时间的转换,需要其他操作的进行其他的操作,这是预处理的意义。结合具体的项目业务来说,要进行相关的操作。

 

四、  预处理使用的技术

明白了目的和意义后,接下来就要确定使用什么样的技术来实现预处理。关于数据预处理的技术,准确来说任何一门语言和编程软件和工具只要能够接受数据、处理数据,然后输出数据都可以进行数据处理操作,比如JAVA语言,python,现有脚本。本项目当中使用 JAVA 语言,不需要去写原生的JAVA程序,这里的技术层面使用MapReduce 编程框架,使用它的原因在于两点:第一个,海马程序本身是JAVA程序,语言层面相对熟悉,可以调用很多JAVA已有的库,比如要处理时间,要用新的forma,第三方jar包非常方便,这是第一点;

第二个MR是一个分布式的计算程序,在企业当中如果数据量比较大,可以并行计算提高预计的效率。所以基于上面两种原因,使用m码。m码编程的重点就在于每个阶段keyv的确定,m码编程是keyv键值对的输入输出过程。

 

五、  预处理的编程思路

预处理的编程思路问题,重点强调一点,在使用m码编程的过程中需要牢牢的把握住每个阶段的k是什么,因为m码中 k 有很多默认的属性存在。默认的分区跟k相关,根据key的哈希,对 MapReduce 的个数分组(reducetasknums);分组也跟key相关,默认 key 相同的分到一组;排序也跟key相关,默认的排序是按照key的字典序排序。

基于这些原因,在进行预处理操作或者使用m码编程操作的时候,重点把握每个阶段的配置。把握住key就把握住了m编程,这是预处理的目的以及编程思路。

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
1月前
|
PyTorch 算法框架/工具
Pytorch学习笔记(七):F.softmax()和F.log_softmax函数详解
本文介绍了PyTorch中的F.softmax()和F.log_softmax()函数的语法、参数和使用示例,解释了它们在进行归一化处理时的作用和区别。
381 1
Pytorch学习笔记(七):F.softmax()和F.log_softmax函数详解
|
1月前
|
数据可视化
Tensorboard可视化学习笔记(一):如何可视化通过网页查看log日志
关于如何使用TensorBoard进行数据可视化的教程,包括TensorBoard的安装、配置环境变量、将数据写入TensorBoard、启动TensorBoard以及如何通过网页查看日志文件。
194 0
|
3月前
|
jenkins 持续交付
jenkins学习笔记之三:使用jenkins共享库实现日志格式化输出
jenkins学习笔记之三:使用jenkins共享库实现日志格式化输出
jenkins学习笔记之三:使用jenkins共享库实现日志格式化输出
|
1月前
|
监控 网络协议 CDN
阿里云国际监控查询流量、用量查询流量与日志统计流量有差异?
阿里云国际监控查询流量、用量查询流量与日志统计流量有差异?
|
5月前
|
存储 Java 关系型数据库
基于JSP的九宫格日志网站
基于JSP的九宫格日志网站
|
5月前
|
JSON 中间件 数据格式
Gin框架学习笔记(六)——gin中的日志使用
Gin框架学习笔记(六)——gin中的日志使用
172 0
|
6月前
|
安全 Linux 调度
【后台开发】TinyWebser学习笔记(4)定时器、日志系统(单例模式)、封装互斥锁信号量
【后台开发】TinyWebser学习笔记(4)定时器、日志系统(单例模式)、封装互斥锁信号量
38 1
|
12天前
|
XML 安全 Java
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
本文介绍了Java日志框架的基本概念和使用方法,重点讨论了SLF4J、Log4j、Logback和Log4j2之间的关系及其性能对比。SLF4J作为一个日志抽象层,允许开发者使用统一的日志接口,而Log4j、Logback和Log4j2则是具体的日志实现框架。Log4j2在性能上优于Logback,推荐在新项目中使用。文章还详细说明了如何在Spring Boot项目中配置Log4j2和Logback,以及如何使用Lombok简化日志记录。最后,提供了一些日志配置的最佳实践,包括滚动日志、统一日志格式和提高日志性能的方法。
121 30
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
|
1月前
|
XML JSON Java
Logback 与 log4j2 性能对比:谁才是日志框架的性能王者?
【10月更文挑战第5天】在Java开发中,日志框架是不可或缺的工具,它们帮助我们记录系统运行时的信息、警告和错误,对于开发人员来说至关重要。在众多日志框架中,Logback和log4j2以其卓越的性能和丰富的功能脱颖而出,成为开发者们的首选。本文将深入探讨Logback与log4j2在性能方面的对比,通过详细的分析和实例,帮助大家理解两者之间的性能差异,以便在实际项目中做出更明智的选择。
220 3
|
1月前
|
存储 缓存 关系型数据库
MySQL事务日志-Redo Log工作原理分析
事务的隔离性和原子性分别通过锁和事务日志实现,而持久性则依赖于事务日志中的`Redo Log`。在MySQL中,`Redo Log`确保已提交事务的数据能持久保存,即使系统崩溃也能通过重做日志恢复数据。其工作原理是记录数据在内存中的更改,待事务提交时写入磁盘。此外,`Redo Log`采用简单的物理日志格式和高效的顺序IO,确保快速提交。通过不同的落盘策略,可在性能和安全性之间做出权衡。
1630 14