网站流量日志分析--统计分析--复合指标分析--平均访问深度|学习笔记

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 快速学习网站流量日志分析--统计分析--复合指标分析--平均访问深度

开发者学堂课程【大数据分析之企业级网站流量运营分析系统开发实战(第四阶段)网站流量日志分析--统计分析--复合指标分析--平均访问深度】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/696/detail/12215


网站流量日志分析--统计分析--复合指标分析--平均访问深度


内容介绍

复合指标统计分析

、人均浏览页数(平均访问深度)

 

一、复合指标统计分析

所谓的复合指标是在基础指标上做一些相关的数学操作,得到一些复杂结果,不管是复合指标还是基础指标,对于开发者要做的就是以下几个步骤,首先需要去结合指标的业务含义,搞清楚当中所包含的业务含义是什么,有没有歧义,有没有不利于理解的地方,可能需要跟别人进行沟通。理清之后需要去确定指标计算需要哪些数据,哪些表,如果没有怎么,要不要去收集新的数据,要不要去清洗新的数据,确定好数据之后就去思考如何编写hivesql语句,能够计算得到指标,带着这样的思路去进行开发进行分析,那么基本上在思路层面是没有太多的迷茫性。接下来就看项目当中复合指标的计算过程。

 

二、人均浏览页数(平均访问深度)

1、深度是来到1个网站,打开1个页面,别人打开7个页面,那么浏览的深度就多深度就是看的页面多与少

2、复合指标的计算

人均访问深度(人均浏览页面数) : 天之内平均每个独立访客打开的页面数

=总的页面浏览数/总的独立访客数

=pv/uv

(1)数据表: dw_webflow_basic_ info(基础指标信息表

通过宽表窄表也能计算出来更加方便的是把基础信息保存在 basic_ info打开hive 输入showtables发现 dw_webflow_basic_ info 恰好就是一天当中的pv uv vv 相关的概念就不用再花精力进行计算直接拿指标进行加减乘除即可。

(2)分组字段:时间( day) day 比较特殊还是表的分区字段通过 where 分区过滤即可

(3)度量值:pv/uv

不是 count(session)而是除法的过程

基础信息表起个别名叫做t通过分区进行过滤拿到20181101这一天的数据

select

pv/uv

from dw_webf1ow_ basic_ info t where t .datestr=" 20181101";

执行返回的结果是13.407,意味着来到网站的用户中平均每个人会打开13.4个页面指标很不错再评估 uv 人时是以 ip 表示人人在计算上有一点差异性不够精准显得指标比较大但是背后的思想技术一样

3、如果之前没有计算出数据表没有基础信息表摒弃之前的思想没有计算出所谓的 pv uv当前有宽表窄表点击率模型表pv 和点击页面相关uv 跟人相关没有会话的概念所以点击率模型表可以排除有宽有窄的情况下优先选择宽表在宽表中如何计算数据打开宽表查看如果不考虑静态资源过滤就是不加 valid当中一条记录就是一个 pv统计里面有多少条记录就有多少个 pvuv 就是统计里面的 IP,ip 有多少个它就是有多少个 uv两个相除就可以得到或者换个思路先计算每个人的 pv每个人平均加起来除以人数也可以

4、今日所有来访者平均请求浏览的页面数。该指标可以说明网站对用户的粘性。

计算方式:总页面请求数 py/独立访客数 uv

remote addr 表示不同的用户。可以先统计出不同 remote addr 的 pv 量然后累加(sum) 所有 pv 作为总的页面请求数,再 count 所有 remote addr 作为总的去重总人数。

drop table dw avgpy user everyday;

create table dw avgpv User everyday(

day string,

avgpv string);

insert into table dw avgpv  user  everyday

select '20130918',sum(b.pvs/count(b.emote addr) from.

(select remote. add,count(1) as pvs from ods weblog detail where datestr='20130918' group by

remote_ addr) b;

(1)数据表:dw_ weblog_detail

(2)分组字段时间( day) day 比较特殊还是表的分区字段通过 where 分区过滤即可

(3)度量值:先计算每个人的 pv 加起来变成总的 pv 再除以人

计算每个人的pv打开数据查看根据 ip 进行分组属于同一用户的记录因为 ip 相等来自同一组在同一组中进行统计就是一个人的 pv

Select

count(*) as pv,t.remote_ addr统计出来就是每个人的pv

from dw_weblog_ detail t where t.datestr=" 20181101" group by t.remote_ addr ;起别名过滤跟之前一样表示分区表根据用户统计分组

执行看结果可以发现前面的指标是 pv后面指标是用户

image.png

平均 pv 指标比较明显有些指标是不符合实际情况的比如打开了100个页面原因可能是 ip 里面有很多人人均 pv 值把 pv 字段多有的数字相加得到今天总的 pv总的 pv 再除以当中的人ip 代表人的个数得到人均的 pv 值一个结果并不是一个表而是 sql 语句执行反馈的结果sql 编写的技术当操作一个表时如果表存在直接进行操作如果表不存在通过某种方式变出来背后包含的思想就是嵌套查询的思想因此把 sql 语句执行的结果看作成一个表复制 sql 语句用括号括起来起个别名叫做 aa 中有两个字段一个叫做 pv一个叫做 ip里面 sum 数字的 pv 加起来所以 count ip 得到结果基于表再进行操作from 后面的表不是一个真实的表是一个嵌套查询的 a 表求和 pv 字段除以 count ip 的值得到的结果就是人均访问深度也叫做人均浏览的页面数

select

sum(pv)/count(ip)

from

(select

count(*) as pv,t.remote_ addr as ip

from dw_weblog_ detail t where t . datestr="20181101" group by t.remote_ addr) a;

执行发现得到的结果跟第一种计算方式一样,13.407,可能第二种方式很麻烦从侧面反映出如果把基础指标计算出来再求复合指标就会很方便

image.png

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
2天前
|
SQL 关系型数据库 MySQL
MySQL事务日志-Undo Log工作原理分析
事务的持久性是交由Redo Log来保证,原子性则是交由Undo Log来保证。如果事务中的SQL执行到一半出现错误,需要把前面已经执行过的SQL撤销以达到原子性的目的,这个过程也叫做"回滚",所以Undo Log也叫回滚日志。
MySQL事务日志-Undo Log工作原理分析
|
9天前
|
存储 运维 监控
Linux--深入理与解linux文件系统与日志文件分析
深入理解 Linux 文件系统和日志文件分析,对于系统管理员和运维工程师来说至关重要。文件系统管理涉及到文件的组织、存储和检索,而日志文件则记录了系统和应用的运行状态,是排查故障和维护系统的重要依据。通过掌握文件系统和日志文件的管理和分析技能,可以有效提升系统的稳定性和安全性。
27 7
|
12天前
|
监控 安全 Linux
启用Linux防火墙日志记录和分析功能
为iptables启用日志记录对于监控进出流量至关重要
|
1月前
|
监控 应用服务中间件 定位技术
要统计Nginx的客户端IP,可以通过分析Nginx的访问日志文件来实现
要统计Nginx的客户端IP,可以通过分析Nginx的访问日志文件来实现
|
2月前
|
XML 安全 Java
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
本文介绍了Java日志框架的基本概念和使用方法,重点讨论了SLF4J、Log4j、Logback和Log4j2之间的关系及其性能对比。SLF4J作为一个日志抽象层,允许开发者使用统一的日志接口,而Log4j、Logback和Log4j2则是具体的日志实现框架。Log4j2在性能上优于Logback,推荐在新项目中使用。文章还详细说明了如何在Spring Boot项目中配置Log4j2和Logback,以及如何使用Lombok简化日志记录。最后,提供了一些日志配置的最佳实践,包括滚动日志、统一日志格式和提高日志性能的方法。
442 30
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
|
24天前
|
监控 安全 Apache
什么是Apache日志?为什么Apache日志分析很重要?
Apache是全球广泛使用的Web服务器软件,支持超过30%的活跃网站。它通过接收和处理HTTP请求,与后端服务器通信,返回响应并记录日志,确保网页请求的快速准确处理。Apache日志分为访问日志和错误日志,对提升用户体验、保障安全及优化性能至关重要。EventLog Analyzer等工具可有效管理和分析这些日志,增强Web服务的安全性和可靠性。
|
3月前
|
XML JSON Java
Logback 与 log4j2 性能对比:谁才是日志框架的性能王者?
【10月更文挑战第5天】在Java开发中,日志框架是不可或缺的工具,它们帮助我们记录系统运行时的信息、警告和错误,对于开发人员来说至关重要。在众多日志框架中,Logback和log4j2以其卓越的性能和丰富的功能脱颖而出,成为开发者们的首选。本文将深入探讨Logback与log4j2在性能方面的对比,通过详细的分析和实例,帮助大家理解两者之间的性能差异,以便在实际项目中做出更明智的选择。
360 3
|
1月前
|
存储 监控 安全
什么是事件日志管理系统?事件日志管理系统有哪些用处?
事件日志管理系统是IT安全的重要工具,用于集中收集、分析和解释来自组织IT基础设施各组件的事件日志,如防火墙、路由器、交换机等,帮助提升网络安全、实现主动威胁检测和促进合规性。系统支持多种日志类型,包括Windows事件日志、Syslog日志和应用程序日志,通过实时监测、告警及可视化分析,为企业提供强大的安全保障。然而,实施过程中也面临数据量大、日志管理和分析复杂等挑战。EventLog Analyzer作为一款高效工具,不仅提供实时监测与告警、可视化分析和报告功能,还支持多种合规性报告,帮助企业克服挑战,提升网络安全水平。
|
3月前
|
存储 缓存 关系型数据库
MySQL事务日志-Redo Log工作原理分析
事务的隔离性和原子性分别通过锁和事务日志实现,而持久性则依赖于事务日志中的`Redo Log`。在MySQL中,`Redo Log`确保已提交事务的数据能持久保存,即使系统崩溃也能通过重做日志恢复数据。其工作原理是记录数据在内存中的更改,待事务提交时写入磁盘。此外,`Redo Log`采用简单的物理日志格式和高效的顺序IO,确保快速提交。通过不同的落盘策略,可在性能和安全性之间做出权衡。
1745 14
MySQL事务日志-Redo Log工作原理分析
|
2月前
|
存储 监控 安全
什么是日志管理,如何进行日志管理?
日志管理是对IT系统生成的日志数据进行收集、存储、分析和处理的实践,对维护系统健康、确保安全及获取运营智能至关重要。本文介绍了日志管理的基本概念、常见挑战、工具的主要功能及选择解决方案的方法,强调了定义管理目标、日志收集与分析、警报和报告、持续改进等关键步骤,以及如何应对数据量大、安全问题、警报疲劳等挑战,最终实现日志数据的有效管理和利用。
145 0

热门文章

最新文章