网站流量日志分析--统计分析--独立访客分析|学习笔记

简介: 快速学习网站流量日志分析--统计分析--独立访客分析

开发者学堂课程【大数据分析之企业级网站流量运营分析系统开发实战(第四阶段)网站流量日志分析--统计分析--独立访客分析】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/696/detail/12238


网站流量日志分析--统计分析--独立访客分析


1、需求描述:按照时间维度比如小时统计独立访客及其产生的 pv

对于独立访容的识别,如果在原始日志中有用户标识,则根据用户标识即很好实现;此处,由于原始日志中并没有用户标识,以访客 IP 模拟,技术上是一样的,只是精确度相对较低。

访客分析指的是以用户从人的角度看待访问网站的一些相关情况指标的计算访客分析的核心重点就是如何识别人到网站的用户有很多有张三李四王五如何知道它是谁的记录这就涉及到访客的识别,这时打开数据在收集的数据跟人相关的两个字段一个是用户的 id一个是用户的标识但是数据用户的标识是缺失字段没有数据用户标识可以用 cookie id 表示比如每人到网站上访问都可以生成唯一的 cookie idcookie id 表示是不同的访客这两个字段需要达成共识它们两个表示都没有问题技术上都是完全一样的

image.png

只不过精准度上区别因为一个 ip 背后可能表示不同的人比如163.177.71.12163.177.71.12是一个人还是两个人都不一定所以需要沟通好这个是访客识别有访客之后访客维度跟其他维度的组合进行相关的指标计算跟页面维度相组合跟时间维度甚至跟时间页面维度相组合举例统计每个人产生的Pv有多少这种情况下只跟人相关统计每个人每小时来访的网站网站随时切换就涉及到多个维度的组合

2、打开参考资料点击访客分析

image.png

需求:按照时间维度来统计独立访客及其产生的 pv 量(按照小时

时间维度:时

drop table dw_ user_ dstc_ ip_ h;

create table dw_ user dstc_ ip_ h(

Remote_ addr string,"

Pvs bigint,

Hour string);

insert into table dw_ user_ Dstc_  ip_ h。

select remote_ addr,count(1) as pvs,concat(month,day,hour) as hour

from ods _ weblog_ detaile

Where datestr=’ 20181101’

(1)数据表:dw_ weblog. Detail

统计每小时访独立访客及其产生的pv量跟点击流模型没有关系因为里面不涉及到会话次数的概念再次强调是业务模型没有会话使用不到

(2)分组字段:时间维度(hour)、访客维度(remote_ addr)

每个小时一天有一点两点三点二十四个小时在一点张三李四也可以一小时不可能都是一个人的记录所以在每个小时还要根据人进行分组分析出张的李的王五的所以还有访客的维度

(3)度量值:count()

确定关键字跟所操作的表起别名进行分组进行分组时时间维度和访客维度是并列的维度两个维度的先后顺序对结果不会产生影响只会影响最终执行的过程因此可以先小时也可以先访客根据两个维度分组完之后进行统计统计完之后看是哪个小时把查询式写上无论是小时还是访客都是分组字段所以出现在表达式中不会报错进行倒序排序进行执行

select

t. hour ,t. remote_ addr ,count(*) as pv

from dw_ weblog_detail t where t.datestr ="20181101" group by t .hour

t.remote_ addr order by t . hour ,p desc ;

3、打开 hive 终端进行执行计算出每个小时的 ip 产生的 pv可以看到23点的打开参考资料点击访客信息创建中间表

create table dw user_ dstc_ ip_ h(

remote_ addr string ,

Pvs bigint ,

Hour string) ;

从宽表中进行分组根据小时和 ip参考资料中是把 monthdayhour 做了concat 拼接根据拼接进行分组如果把拼接去掉直接根据 monthdayhour 进行分组需求是根据小时进行分组如果数据干净整洁对结果没有影响因为前面的字段保护了它通过 where 条件得到20181101,不管怎么分一定是11月的不能是12月的根据天怎么分一定是1号的不能是2号的因此 month 和 day 分等于没有分最终起决定作用的还是 hourhour不一样就到不同的分组中统计完后根据 hour 的正序 pvs 倒序进行排序最终才有 insert 加 select 语句

insert into table dw_ user_ dstc_ ip_ h

select remote_ addr , count(1) as pvs , concat (month, day ,hour) as hour

from dw weblog detail

Where datestr= '20181101"

group by concat (month , day ,hour) , remote_ addr

order by hour asc,pvs desc ;

复制打开 hive 终端进行执行为了验证表是否正确可以进行查询

select *from dw_user dstc_ip_h

列举出每个小时采集pv 大概数据情况数据就可以非常方便的在页面上做相关的执行

4、在上述基础之上,可以继续分析,比如每小时独立访客总数

select count(1) as dstc_ ip_ cnts ,hour from dw_ user_ dstc_ ip_ h group by hour ;

时间维度:日

select remote_ addr ,count(1) as counts , concat (month,day) as day

from dw_ weblog_ detail

Where datestr='20181101 '

group by concat (month,day) , remote_ addr;

时间维度:

select remote_ addr , count(1) as counts , month

from dw_ weblog_ detail

group by month, remote_ addr ;

每个小时每天做个累加也可以分组时把天去掉每个月的都非常类似统计每天把小时去掉统计每月把天去掉或者做累加在独立访客分析重点需要注意两个知识点一个是独立访客的识别问题用哪个字段表示访客第二个就是分组维度多为分析的问题确定分组维度就可以写sql语句其他都比较简单跟之前的分析类似

 

相关实践学习
【涂鸦即艺术】基于云应用开发平台CAP部署AI实时生图绘板
【涂鸦即艺术】基于云应用开发平台CAP部署AI实时生图绘板
相关文章
|
8月前
|
监控 安全 搜索推荐
使用EventLog Analyzer进行日志取证分析
EventLog Analyzer助力企业通过集中采集、归档与分析系统日志及syslog,快速构建“数字犯罪现场”,精准追溯安全事件根源。其强大搜索功能可秒级定位入侵时间、人员与路径,生成合规与取证报表,确保日志安全防篡改,大幅提升调查效率,为执法提供有力证据支持。
306 0
|
10月前
|
监控 安全 NoSQL
【DevOps】Logstash详解:高效日志管理与分析工具
Logstash是ELK Stack核心组件之一,具备强大的日志收集、处理与转发能力。它支持多种数据来源,提供灵活的过滤、转换机制,并可通过插件扩展功能,广泛应用于系统日志分析、性能优化及安全合规等领域,是现代日志管理的关键工具。
1458 0
|
12月前
|
自然语言处理 监控 安全
阿里云发布可观测MCP!支持自然语言查询和分析多模态日志
阿里云可观测官方发布了Observable MCP Server,提供了一系列访问阿里云可观测各产品的工具能力,包含阿里云日志服务SLS、阿里云应用实时监控服务ARMS等,支持用户通过自然语言形式查询
1743 0
阿里云发布可观测MCP!支持自然语言查询和分析多模态日志
|
11月前
|
人工智能 运维 监控
Aipy实战:分析apache2日志中的网站攻击痕迹
Apache2日志系统灵活且信息全面,但安全分析、实时分析和合规性审计存在较高技术门槛。为降低难度,可借助AI工具如aipy高效分析日志,快速发现攻击痕迹并提供反制措施。通过结合AI与学习技术知识,新手运维人员能更轻松掌握复杂日志分析任务,提升工作效率与技能水平。
|
XML 安全 Java
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
本文介绍了Java日志框架的基本概念和使用方法,重点讨论了SLF4J、Log4j、Logback和Log4j2之间的关系及其性能对比。SLF4J作为一个日志抽象层,允许开发者使用统一的日志接口,而Log4j、Logback和Log4j2则是具体的日志实现框架。Log4j2在性能上优于Logback,推荐在新项目中使用。文章还详细说明了如何在Spring Boot项目中配置Log4j2和Logback,以及如何使用Lombok简化日志记录。最后,提供了一些日志配置的最佳实践,包括滚动日志、统一日志格式和提高日志性能的方法。
4861 32
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
|
监控 安全 Apache
什么是Apache日志?为什么Apache日志分析很重要?
Apache是全球广泛使用的Web服务器软件,支持超过30%的活跃网站。它通过接收和处理HTTP请求,与后端服务器通信,返回响应并记录日志,确保网页请求的快速准确处理。Apache日志分为访问日志和错误日志,对提升用户体验、保障安全及优化性能至关重要。EventLog Analyzer等工具可有效管理和分析这些日志,增强Web服务的安全性和可靠性。
579 9
|
监控 容灾 算法
阿里云 SLS 多云日志接入最佳实践:链路、成本与高可用性优化
本文探讨了如何高效、经济且可靠地将海外应用与基础设施日志统一采集至阿里云日志服务(SLS),解决全球化业务扩展中的关键挑战。重点介绍了高性能日志采集Agent(iLogtail/LoongCollector)在海外场景的应用,推荐使用LoongCollector以获得更优的稳定性和网络容错能力。同时分析了多种网络接入方案,包括公网直连、全球加速优化、阿里云内网及专线/CEN/VPN接入等,并提供了成本优化策略和多目标发送配置指导,帮助企业构建稳定、低成本、高可用的全球日志系统。
1153 54
|
存储 缓存 关系型数据库
图解MySQL【日志】——Redo Log
Redo Log(重做日志)是数据库中用于记录数据页修改的物理日志,确保事务的持久性和一致性。其主要作用包括崩溃恢复、提高性能和保证事务一致性。Redo Log 通过先写日志的方式,在内存中缓存修改操作,并在适当时候刷入磁盘,减少随机写入带来的性能损耗。WAL(Write-Ahead Logging)技术的核心思想是先将修改操作记录到日志文件中,再择机写入磁盘,从而实现高效且安全的数据持久化。Redo Log 的持久化过程涉及 Redo Log Buffer 和不同刷盘时机的控制参数(如 `innodb_flush_log_at_trx_commit`),以平衡性能与数据安全性。
864 5
图解MySQL【日志】——Redo Log

热门文章

最新文章