游戏日志分析5:数据库与日志关联分析

本文涉及的产品
对象存储 OSS,20GB 3个月
对象存储 OSS,内容安全 1000 次 1年
文件存储 NAS,50GB 3个月
简介: 在日志分析场景中,我们经常会遇到数据分散在各地场景,例如: 1. 用户操作、行为相关的数据在日志中 2. 用户属性、注册信息,资金、道具等状态存在DB中 3. 根据1和2我们需要对用户进行分层统计,将最后的计算结果写入DB中供报表系统查询 因此为了做分析,我们要在日志服务Logstore.

系列文章:

在日志分析场景中,我们经常会遇到数据分散在各地场景,例如:

  1. 用户操作、行为相关的数据在日志中
  2. 用户属性、注册信息,资金、道具等状态存在DB中
  3. 根据1和2我们需要对用户进行分层统计,将最后的计算结果写入DB中供报表系统查询

因此为了做分析,我们要在日志服务Logstore和其他数据源中进行关联查询。以下我们就来看一个例子

用户日志数据

下图是一条经典的游戏日志样例,包括操作、目标、血、魔法值、网络、支付手段、点击位置、状态码、用户id。日志数据量一般规模会随着用户数目+活动频率相关,对一个大型游戏而言,一天会有几百G-几TB规模。

image.png | left

用户元信息

日志表示是增量的事件,一些静态的用户信息,例如用户的性别、注册时间、地区等等是固定不变的,或者在客户端很难获取,不能够打印到日志里。我们把这些信息称为用户元信息。元数据一般和用户数目相关,一般在几百MB-十几GB之间。

在分析日志的时候,需要结合事件日志和用户元信息才能拿到结果,例如性别对支付行为的影响。性别只保存在用户元信息中,在日志中则没有。我们需要通过用户id把日志和用户信息关联起来分析。

下图是用户元信息样例,包括了用户的id、昵称、性别、年龄、注册时间、账户余额、省份。

image.png | left

日志服务和MySQL关联分析

  • 日志服务LogStore,提供日志的收集、存储、查询分析。
  • 日志服务ExternalStore,映射到RDS表。开发者把用户信息放到rds表中。

日志服务查询分析引擎,提供跨LogStore和ExternalStore的查询分析功能,使用SQL的join语法把日志和用户元信息关联起来。用户可以用来分析跟用户属性相关的指标。

image.png | left

除在查询过程中引用ExternalStore之外,日志服务还支持将计算结果直接写入ExternalStore中(例如MySQL),方便结果的进一步处理。

如何使用?

1. 采集日志到日志服务

  1. 移动端采集

    1. Android
    2. iOS
  2. 服务器日志采集ilogtail

收集的日志样例:

image.png | left

2. 创建MySQL表,保存用户属性

创建一张chiji_user表,保存用户的id、昵称、性别、年龄、注册时间、账户余额、注册省份。

CREATE TABLE `chiji_user` (
  `uid` int(11) NOT NULL DEFAULT '0',
  `user_nick` text,
  `gender` tinyint(1) DEFAULT NULL,
  `age` int(11) DEFAULT NULL,
  `register_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
  `balance` float DEFAULT NULL,
  `province` text,
  PRIMARY KEY (`uid`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8
AI 代码解读

3. 创建ExternalStore

创建ExternalStore需要使用日志服务cli,首先安装cli:

pip install -U aliyun-log-cli
AI 代码解读

创建ExternalStore,指定所属的project,以及ExternalStore的配置文件/root/config.json

aliyunlog log create_external_store --project_name="log-rds-demo" --config="file:///root/config.json" 
AI 代码解读

/root/config.json的内容是:

{
    "externalStoreName": "chiji_user",
    "storeType": "rds-vpc",
    "parameter": {
        "vpc-id": "vpc-m5eq4irc1pucpk85frr5j",
        "instance-id": "rm-m5ep2z57814qsn97b",
        "host": "rm-m5ep2z57814qsn97b.mysql.rds.aliyuncs.com",
        "port": "3306",
        "username": "testroot",
        "password": "123456789",
        "db": "chiji",
        "table": "chiji_user",
        "region": "cn-qingdao"
    }
}
AI 代码解读

在配置文件中,指定外部存储的名称,以及外部存储的参数。rds vpc需要指定的参数有:vpc-id ,rds实例id,内网域名、端口、用户名、密码、数据库和表名、rds所属region。

添加白名单

在rds中,添加白名单地址100.104.0.0/16
如果是mysql,请添加该地址到安全组

4. 关联分析

4.1 分析活跃用户的性别分布

使用join语法,通过指定日志中的userid和rds中的uid相等来关联日志和用户属性。

* | select  case gender  when 1 then '男性'  else  '女性'  end as gender , count(1) as pv 
  from log l join chiji_user u on l.userid = u.uid  group by gender   order by pv desc
AI 代码解读

image.png | left

4.2 分析不同省份的越活度

* | select  province , count(1) as pv   from log l join chiji_user u on l.userid = u.uid  group by province   order by pv desc
AI 代码解读

image.png | left

4.3 分析不同性别的消费情况

* | select  case gender  when 1 then '男性'  else  '女性'  end as gender , sum(money)  as  money  from log l join chiji_user u on l.userid = u.uid  group by gender   order by money  desc
AI 代码解读

5. 保存查询分析结果

  • 首先创建结果表,该表存储每分钟的PV值:
CREATE TABLE `report` (
  `minute` bigint(20) DEFAULT NULL,
  `pv` bigint(20) DEFAULT NULL
) ENGINE=InnoDB DEFAULT CHARSET=utf8
AI 代码解读
  • 同样的,参考上文创建ExternalStore的步骤,给report表撞见ExternalStore。

编写SQL把结果保存到report:

* |  insert into report select __time__- __time__ % 300 as min, count(1) as pv group by min
AI 代码解读

SQL返回的结果是最终输出到rds中的行数。最终report表的结果:

image.png | left

总结

日志服务强大的查询分析能力,帮助游戏开发者去分析用户的习惯。同时,日志服务提供的ExternalStore功能,帮助用户扩展日志的信息。通过关联日志和用户属性,获取更多有价值的信息。

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
打赏
0
0
0
1
3124
分享
相关文章
MySQL日志详解——日志分类、二进制日志bin log、回滚日志undo log、重做日志redo log
MySQL日志详解——日志分类、二进制日志bin log、回滚日志undo log、重做日志redo log、原理、写入过程;binlog与redolog区别、update语句的执行流程、两阶段提交、主从复制、三种日志的使用场景;查询日志、慢查询日志、错误日志等其他几类日志
194 35
MySQL日志详解——日志分类、二进制日志bin log、回滚日志undo log、重做日志redo log
Tomcat log日志解析
理解和解析Tomcat日志文件对于诊断和解决Web应用中的问题至关重要。通过分析 `catalina.out`、`localhost.log`、`localhost_access_log.*.txt`、`manager.log`和 `host-manager.log`等日志文件,可以快速定位和解决问题,确保Tomcat服务器的稳定运行。掌握这些日志解析技巧,可以显著提高运维和开发效率。
118 13
图解MySQL【日志】——Redo Log
Redo Log(重做日志)是数据库中用于记录数据页修改的物理日志,确保事务的持久性和一致性。其主要作用包括崩溃恢复、提高性能和保证事务一致性。Redo Log 通过先写日志的方式,在内存中缓存修改操作,并在适当时候刷入磁盘,减少随机写入带来的性能损耗。WAL(Write-Ahead Logging)技术的核心思想是先将修改操作记录到日志文件中,再择机写入磁盘,从而实现高效且安全的数据持久化。Redo Log 的持久化过程涉及 Redo Log Buffer 和不同刷盘时机的控制参数(如 `innodb_flush_log_at_trx_commit`),以平衡性能与数据安全性。
88 5
图解MySQL【日志】——Redo Log
消防行业如何借助时序数据库 TDengine 打造高效的数据监控与分析系统
本篇文章来自“2024,我想和 TDengine 谈谈”征文活动的优秀投稿,深入探讨了如何在消防行业中运用 TDengine 进行业务建模。文章重点介绍了如何通过 TDengine 的超级表、标签设计和高效查询功能,有效管理消防监控系统中的时序数据。作者详细阐述了实时监控、报警系统以及历史数据分析在消防行业中的应用,展示了 TDengine 在数据压缩、保留策略和分布式架构下的强大优势。
44 0
2600 万表流计算分析如何做到? 时序数据库 TDengine 助力数百家超市智能化转型
在生鲜超市的高效运营中,实时数据分析至关重要。万象云鼎的“云鲜生”通过智能秤+网关+软件系统的组合,实现了销售数据的精准管理与优化。而在数据处理方面,TDengine 的流计算能力成为了这一方案的核心支撑。本文详细分享了“云鲜生”如何利用 TDengine 高效存储和分析海量销售数据,在优化超市运营、提升用户体验的同时,解决高基数分组、高并发查询等技术挑战。
62 1
【YashanDB数据库】YAS-02079 archive log mode must be enabled when database is in replication mode
YAS-02079 archive log mode must be enabled when database is in replication mode
简单聊聊MySQL的三大日志(Redo Log、Binlog和Undo Log)各有什么区别
在MySQL数据库管理中,理解Redo Log(重做日志)、Binlog(二进制日志)和Undo Log(回滚日志)至关重要。Redo Log确保数据持久性和崩溃恢复;Binlog用于主从复制和数据恢复,记录逻辑操作;Undo Log支持事务的原子性和隔离性,实现回滚与MVCC。三者协同工作,保障事务ACID特性。文章还详细解析了日志写入流程及可能的异常情况,帮助深入理解数据库日志机制。
139 0
MySQL事务日志-Undo Log工作原理分析
事务的持久性是交由Redo Log来保证,原子性则是交由Undo Log来保证。如果事务中的SQL执行到一半出现错误,需要把前面已经执行过的SQL撤销以达到原子性的目的,这个过程也叫做"回滚",所以Undo Log也叫回滚日志。
163 7
MySQL事务日志-Undo Log工作原理分析

云存储

+关注

相关产品

  • 日志服务
  • AI助理

    你好,我是AI助理

    可以解答问题、推荐解决方案等