网站流量日志分析--数据预处理--点击流模型 pageviews 代码实现| 学习笔记

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 快速学习网站流量日志分析--数据预处理--点击流模型 pageviews 代码实现

开发者学堂课程【大数据分析之企业级网站流量运营分析系统开发实战(第二阶段)网站流量日志分析--数据预处理--点击流模型 pageviews 代码实现】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/694/detail/12194


网站流量日志分析--数据预处理--点击流模型 pageviews 代码实现

内容介绍:

一、概述

二、maptask 阶段的逻辑处理

三、reducetask 阶段的逻辑处理

四、for 循环遍历集合

五、回顾总结

 

一、概述

下面结合代码了解上节课所画的 pageviews 编程实现图如何落实到代码层面,整个编程依旧通过 maptask60框架来完成。

打开编译器,边有一个文件夹的目录pageviews,首先写入一个类ClicKeyStreamPageView,类当中的内容即为核心流程,里面有 maptask reducetask 以及运行的主类方法。

maptask 过程中并没有处理太多的数据,所完成的事情是:当处理原始日志即清洗完的原始访问日志,读取一行,提取IP作为T,然后把这一行内容进行传递即可。

 

二、maptask 阶段的逻辑处理

maptask 阶段并没有进行太多的业务逻辑处理。代码中读取一行内容,把这一行内容首先转换成字符串类型,然后按照\001进行切割,要特别强调在清洗完成数据之后,数据之间的字段是以\01不可见分隔符来分隔的,此时数据非常规整,有利于解析,可以直接通过\001进行切割,切割完成后变成一个字符串的一个数组,然后进行判断,如果数组的长度小于9直接 return,它的字段连九个都不满足的,是一些非法的、不合规的数据。

接下来创建了一个VV就是外部log v对应的对对象对象,把刚才切割数当中的每一个字段,按照它对应的顺序进行填充即可,这时发现以\001切割的字段填充将会变得非常的方便,填充完成之后,按照正常逻辑把 IP 作为 Keyey,把对对象作为V输出即可,但额外加了一个小小的校验,叫做v.isValidValid是一个自定义的布尔类型,打开 weblogbean,发现Valid是一个布尔类型,叫做判断数据是否合法,即在此做了一个数据有效性的判断,也是为了维护有效的数据,才能进行后续的处理,无效数据连if循环都无法进入,更不会输出。如果数据有效,然后获取它的remote address,把它的ID作为Key,把对对象作为V输出即可,对应讲义上画图的这一段逻辑。

 

三、reducetask 阶段的逻辑处理

在整个 maptask 阶段,没有进行太多的操作,因此整个 ideab 的梳理重点放在了reducetask 阶段,接下来回到代码中,继续往下梳理。

首先写了一个内部的静态类去继承 reducetaskr,要做的事很明确,首先要把这一组的遍历拿出来放在一个集合当中,然后把集合作为参数传给方法进行排序,并且在排序的时候指定排序规则。

逻辑思路清晰之后,才能清楚明白地写入代码、读懂代码。带着思路回到代码中,首先使用了 ArrayList 的集合,集合里面承载的是 weblogbeanweblogbean 对应一条记录,即一个对象的实例。接下来,首先采用对象复制的方式,把internal迭代器当中的对象遍历出来,然后添加到集合当中,相当于提取这一组用户的所有记录,把记录保存在 Array 集合当中,然后把集合作为参数放在 collection 当中进行排序,在排序的时候利用了 comparator 的接口,根据对象当中的时间排序。

因为在梳理会话的时候,需要判断前后两条记录的时间差,该时间差不是拿两条数据进行随意计算的,必须要有顺序,如果没有顺序,最终的结果没有任何意义,Java 中当中提供了一个排序工具即 comparator 的接口,可以发现之前的comparator 方法,接口使用的是匿名类不类的形式,一个接口的实例传入的两个对象都是 weblogbean 实例,首先 oe get 时间,or 也去获取时间,然后转为data类型,而data类型属于Java基本类型,针对它做一个判断可以发现如果当中有一个为空,则返回零,不进行判断,最终判断d1 compareTod(2)进行默认比较,即比较正序,如果比其小返回负数,如果比其大返回正数,如果两者相等就返回零,这样就可以把集合当中的对象按照访问时间的正序进行排序,这一步很重要。

 

四、for 循环遍历集合

排序完成之后,接下来的操作代码虽然很多,但是逻辑非常单一,就是所说的for循环遍历集合,判断前后两条的时间差,它的核心标准就是用下一步的时间减去上一步的时间,判断是否小于30分钟,以此来作为分界线。

首先定义一个变量叫做step=1,然后设置一个会话 sessionsession 是用UUID生成的,session 叫做会话的标识,在企业当中会话的标识通常要求不能重复。

如果张三访问后产生的会话为session1,李四访问的会话也叫session1,后面根据会话来识别,就丧了失意义,因此通过 UUID 生成的 session应该是不会重复的。

接下来针对集合进行for循环,i=0开始,i<beans.size,i++,如果它的集合size=1,刚才画图中说过,如果等于1意味着它只有一条记录,这时候直接默认输出,直接去设置相关的属性,包括它的session号、以及刚才生成的停留时间等等。当只有一条数据的时候,它的停流时间是写死的60秒,因为只有一步的时候无法计算两个数据的时间差即停流时间。其他字段就是进入字段写入,写完之后要把session ID重置。

当只有一条处理完之后,for循环就不需要运行了,所以这里有一个break跳转,跳出整体循环,表示后面的for循环就不用操作了,已经纪律了用户的会话,整个逻辑结束。如果它的size不等于一,if语句就不会运行,也就会运行接下来的代码。

回到画板中查看,如果size不等于1,表示至少有两条,这时候需要进行一个判断,当取到第一条的时候,直接continue跳转不处理,即当不等于1的时候跳过第一条不输出,遍历第二条的时候再输出上一条。这里隐藏了一个Java语法,分别是breakcontinuecontinue表示跳出单次循环,break表示跳出整体循环。跳出之后,i=1,核心的步骤就是用当前这一步的时间和上一步(i-1)的时间做time dif操作,即计算时间差,拿到这一步的时间和上一步时间进行相减,时间差解出来之后,是一个浪费型的值,单位是毫秒,判断它是不是小于30分钟,如果时间差小于30分钟,走一个循环,默认属于同一个会话,如果不小于30分钟,是另一个循环。如果下一步减上一步的时间小于30分钟,直接输出上一步的记录,输出的都是i-1均是上一条的记录。

需要强调的是这里的时间差就是两个相减除以1000,因为它是毫秒除以1000变成秒。接下来把step进行++。如果没有小于三分钟,而是大于三分钟,走S语句,走S语句时候输出之后还要注意把 step session 进行重置,这段代码呼应了画图中的当 i=3的时候,在输出上一步之后,把步骤号和session号做一个重置。

最后就是当拿到最后一条记录的时候,直接默认输出,因为最后一条也无法计算页面停留时间,直接默认写死60秒钟。整个逻辑代码的虽然很多,但是逻辑异常清晰,就是画图当中所写的这一段,核心思想就是要想得到是否统一是否属于同一个,要得到下一步的时间减去上一步时间,以时间差来做为判断。

写完之后就是运行主类 may 方法了,也就是比较逻辑,检查代码是成功与否。要注意 pageviews 程序,它的输入应该是上一个清洗完之后的输出路径。打开D盘,刚才输出来的路径在>这台电赔>LENOVO(D:)>weblog>output路径下,把路径复制过来作为输入路径,输出是在这个路径下,这时用本地模式右键运行一下,检查处理的数据到底符不符合规范,右键选择 run 完成运行,本地模式的代码计算相对来说会比较快,当然如果数据比较大,在企业当中建议把程序打成架包,在架构上进行执行,计算完毕,通过状态码查看其退出为0,应该是计算成功了,打开输出路径进行查看,选择 pageviews 当中 success 标识表示计算成功,右键打开part0-r-0000,可以发现当中的数据变得异常清晰。第一个字段数就是所谓的session ID,可以发现相同的 session,比如有四条记录都是C9F,均是rr用户,后面具体的操作共有四个步骤,第一步停留在六秒,第二步停留在196秒,然后是71秒再到60秒,所以就是每一步和每一步的停留时间,可以想像显示的最后一步都是默认的60秒。访问五步的同样如此,停留时间依次是25026454660秒既然是属于同一种,它们的会话ID都一样,都是5a181

 

五、回顾总结

这样就完成了点击流模型 pageviews 的实现,再次来回顾总结。pageviews 模型注重于会话的识别和每次会话类访问的几步和每一步的停留时间,需要做到是找出会话,标上动作后计算时间差。例如有五步,把这五步用点串起来,串成一条线,就变成点击流模型了,这就是pageviews模型代码的具体实现,结合画图来梳理代码逻辑。

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
23天前
|
jenkins 持续交付
jenkins学习笔记之三:使用jenkins共享库实现日志格式化输出
jenkins学习笔记之三:使用jenkins共享库实现日志格式化输出
jenkins学习笔记之三:使用jenkins共享库实现日志格式化输出
|
17天前
|
SQL 安全 数据库
基于SQL Server事务日志的数据库恢复技术及实战代码详解
基于事务日志的数据库恢复技术是SQL Server中一个非常强大的功能,它能够帮助数据库管理员在数据丢失或损坏的情况下,有效地恢复数据。通过定期备份数据库和事务日志,并在需要时按照正确的步骤恢复,可以最大限度地减少数据丢失的风险。需要注意的是,恢复数据是一个需要谨慎操作的过程,建议在执行恢复操作之前,详细了解相关的操作步骤和注意事项,以确保数据的安全和完整。
36 0
|
25天前
|
消息中间件 Kubernetes Kafka
微服务从代码到k8s部署应有尽有系列(十一、日志收集)
微服务从代码到k8s部署应有尽有系列(十一、日志收集)
|
1月前
分享一份 .NET Core 简单的自带日志系统配置,平时做一些测试或个人代码研究,用它就可以了
分享一份 .NET Core 简单的自带日志系统配置,平时做一些测试或个人代码研究,用它就可以了
|
2月前
|
Unix Python
Python代码示例:使用`syslog`模块进行日志记录
Python代码示例:使用`syslog`模块进行日志记录
|
3月前
|
安全 Java 编译器
写个代码扫描插件,再也不怕 log4j 等问题
写个代码扫描插件,再也不怕 log4j 等问题
25 0
|
27天前
|
Kubernetes Ubuntu Windows
【Azure K8S | AKS】分享从AKS集群的Node中查看日志的方法(/var/log)
【Azure K8S | AKS】分享从AKS集群的Node中查看日志的方法(/var/log)
|
9天前
|
Java
日志框架log4j打印异常堆栈信息携带traceId,方便接口异常排查
日常项目运行日志,异常栈打印是不带traceId,导致排查问题查找异常栈很麻烦。
|
19天前
|
存储 监控 数据可视化
SLS 虽然不是直接使用 OSS 作为底层存储,但它凭借自身独特的存储架构和功能,为用户提供了一种专业、高效的日志服务解决方案。
【9月更文挑战第2天】SLS 虽然不是直接使用 OSS 作为底层存储,但它凭借自身独特的存储架构和功能,为用户提供了一种专业、高效的日志服务解决方案。
50 9
|
27天前
|
开发框架 .NET Docker
【Azure 应用服务】App Service .NET Core项目在Program.cs中自定义添加的logger.LogInformation,部署到App Service上后日志不显示Log Stream中的问题
【Azure 应用服务】App Service .NET Core项目在Program.cs中自定义添加的logger.LogInformation,部署到App Service上后日志不显示Log Stream中的问题