日志服务+流计算+RDS 统计网站访问日志

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
日志服务 SLS,月写入数据量 50GB 1个月
简介: 众所周知,在阿里云所有的产品里,很多产品不需要写代码也能做出炫酷的demo,操作简单,容易上手。最近流计算开始公测,所谓世间万事万物,我们都要挑点来尝尝,拿它做个什么demo捏?请看本期云享团分享。
本期分享专家:黄莉娟,具有多年前端开发经验,曾就职于天基,在阿里云从事大数据产品、日志服务、消息产品的技术支持,喜欢研究新技术分享新产品。我的口号“我就爱玩新产品!别叫我停下来”
b2afd431f16e95521ffa820d91a6f0618813e820
众所周知,在阿里云所有的产品里,很多产品不需要写代码也能做出炫酷的demo,操作简单,容易上手。最近流计算开始公测,所谓世间万事万物,我们都要挑点来尝尝,拿它做个什么demo捏,在思考了四分之一柱香之后,我决定写一个先有鸡还是先有蛋的故事。
是的,写个自己统计自己访问日志的网站,是不是为了做demo完全不要节操!
这个demo很适合初学者!

step 1、准备工作日志生成过程

首先把/etc/nginx/nginx.conf 配置一下,搞个跳转
location / {
proxy_pass http://127.0.0.1:3000;
}

一会3000这个端口我们用nodejs起个http server,这样访问根目录就跳转到我的nodejs网站了,为了要个nginx的日志,我不择手段,为什么要统计nginx日志呢,因为有个现成的介绍,不会的请戳这里https://help.aliyun.com/document_detail/28988.html

配置好以后,sls的控制台看,日志长这样

4aa615e27fb00c1a7c9ca6d8f8cdfe5b801027e6

step 2、在RDS建结果表

然后我们用流计算把日志服务的数据挖出来丢到rds,网站读rds搞点图图粗来,刷一下rds变一下,是不是很想给我的脑袋来上一枪!

先给rds建两张表,我们会把结果放在这两张表里,统计日志的网站读这两张表就行了。为了方便简单两张表建一样的格式好了。
CREATE TABLE `sls_event` (
  `time` int(11) NOT NULL DEFAULT '0',
  `event_type` char(32) NOT NULL DEFAULT '',
  `event_value` char(128) NOT NULL DEFAULT '',
  `value` int(11) DEFAULT NULL,
  PRIMARY KEY (`time`,`event_type`,`event_value`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

CREATE TABLE `sls_status` (
  `time` int(11) NOT NULL DEFAULT '0',
  `event_type` char(32) NOT NULL DEFAULT '',
  `event_value` char(128) NOT NULL DEFAULT '',
  `value` int(11) DEFAULT NULL,
  PRIMARY KEY (`time`,`event_type`,`event_value`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;


step 3、使用流计算计算日志数据并输出到RDS表

开通流计算,开通好以后,可以看见控制台长这样:

6901da3b7b39e12ac28beb934b56ebb981eb13d7
把里面sql抠出来放在这:

---------------------------------------我是stream sql的分割线-------------------------------------------------------

--1.首先定义下数据源的表,这里我们用type='loghub',直接就能把loghub中的数据读出来

CREATE STREAM TABLE source_test_sls_galaxy (ip STRING, status INT, request STRING,refer STRING,user_agent STRING ) 
WITH ( type='loghub', endpoint='http://project_region.log.aliyuncs.com', accessId='!@#$',accessKey='@#$%', projectName='#$$%%', logstore='!@#$%' );

--2.然后定义个两个RDS的表type='mysql' 作为输出结果表

CREATE RESULT TABLE sls_event (
time                INT,
event_type          STRING,
event_value         STRING,
value               INT
) WITH (
type='mysql',
url='jdbc:mysql://@#$%:3306/@$$%',
username='@#$%',
password='@#$%',
tableName='sls_event'
);

CREATE RESULT TABLE sls_status (
time                INT,
event_type          STRING,
event_value         STRING,
value               INT
 ) WITH (
type='mysql',
url='jdbc:mysql://@#$%:3306/@$$%',
username='@#$%',
password='@#$%',
tableName='sls_event'
);

-- 3. 定义下计算逻辑

INSERT INTO sls_event select
   prop_get('__time__') as time,
   'pv' as event_type,
   'get' as event_value,
   COUNT(1) as value
FROM source_test_sls_galaxy
GROUP BY prop_get('__time__');

INSERT INTO sls_status select
   prop_get('__time__') as time,
   'status' as event_type,
   status as event_value,
   COUNT(1) as value
FROM source_test_sls_galaxy
GROUP BY prop_get('__time__'),status;

---------------------------------------我还是stream sql的分割线-------------------------------------------------------

注意下!!!sql里面我用了 prop_get('__time__'),这个是loghub的系统字段时间__time__,必须通过消息属性传递进来,普通的日志服务的key写在数据源的表就可以了,系统字段不用写,配置下任务参数,直接用,可以参考下http://gitlab.alibaba-inc.com/galaxy/galaxy/wikis/prop-functions

任务参数这么写:
galaxy.input.props.keylist=timestamp,__time__
截个图。最后一行红圈圈是我加的:

2bb21d0d84662a0ddfb0a1e49a2fd2bad9f3f0f3

然后轻轻的点击下“上线”,上线成功后,再轻轻的点击下“运维”,进去把任务启动起来。

启动好之后,看起来是酱紫滴,输入RPS是有东西的。当然之所以有输入,是因为我访问了一下我的网站了~~
8a059e7fcd8ad886b8555e2d84b977c6e8488016


step 4、在网站上的展示效果,刷一刷就会看到变化

来刷刷我们的网站,就是我用nodejs启动的在3000端口,nginx配置了跳转的那一个咯。

-- 先看看网站的PV统计,是流计算的这句sql搞出来的
INSERT INTO sls_event select
prop_get('__time__') as time,
'pv' as event_type,
'get' as event_value,
COUNT(1) as value
FROM source_test_sls_galaxy
GROUP BY prop_get('__time__');
abe9c92c36260c2d902b85d68c940cbd7101ec53

-- 再看看网站的状态码统计,是流计算的这句sql搞出来的
INSERT INTO sls_status select
prop_get('__time__') as time,
'status' as event_type,
status as event_value,
COUNT(1) as value
FROM source_test_sls_galaxy
GROUP BY prop_get('__time__'),status;

367d6ebb0118c3720a96a67a5b2ffd126efacbb0

当然,刷一下网站,数据就会变一下!
是不是吼神奇!
"我就爱玩新产品!别叫我停下来!"

本期分享结束啦 ,想让云享团分享哪些技术, 欢迎大家留言讨论,我们下期再见。
相关实践学习
如何快速连接云数据库RDS MySQL
本场景介绍如何通过阿里云数据管理服务DMS快速连接云数据库RDS MySQL,然后进行数据表的CRUD操作。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
24天前
|
存储 缓存 关系型数据库
图解MySQL【日志】——Redo Log
Redo Log(重做日志)是数据库中用于记录数据页修改的物理日志,确保事务的持久性和一致性。其主要作用包括崩溃恢复、提高性能和保证事务一致性。Redo Log 通过先写日志的方式,在内存中缓存修改操作,并在适当时候刷入磁盘,减少随机写入带来的性能损耗。WAL(Write-Ahead Logging)技术的核心思想是先将修改操作记录到日志文件中,再择机写入磁盘,从而实现高效且安全的数据持久化。Redo Log 的持久化过程涉及 Redo Log Buffer 和不同刷盘时机的控制参数(如 `innodb_flush_log_at_trx_commit`),以平衡性能与数据安全性。
29 5
图解MySQL【日志】——Redo Log
|
8天前
|
数据可视化 关系型数据库 MySQL
ELK实现nginx、mysql、http的日志可视化实验
通过本文的步骤,你可以成功配置ELK(Elasticsearch, Logstash, Kibana)来实现nginx、mysql和http日志的可视化。通过Kibana,你可以直观地查看和分析日志数据,从而更好地监控和管理系统。希望这些步骤能帮助你在实际项目中有效地利用ELK来处理日志数据。
170 90
|
2天前
|
监控 Java 应用服务中间件
Tomcat log日志解析
理解和解析Tomcat日志文件对于诊断和解决Web应用中的问题至关重要。通过分析 `catalina.out`、`localhost.log`、`localhost_access_log.*.txt`、`manager.log`和 `host-manager.log`等日志文件,可以快速定位和解决问题,确保Tomcat服务器的稳定运行。掌握这些日志解析技巧,可以显著提高运维和开发效率。
44 13
|
6天前
|
缓存 Java 编译器
|
23天前
|
关系型数据库 MySQL 数据库
图解MySQL【日志】——两阶段提交
两阶段提交是为了解决Redo Log和Binlog日志在事务提交时可能出现的半成功状态,确保两者的一致性。它分为准备阶段和提交阶段,通过协调者和参与者协作完成。准备阶段中,协调者向所有参与者发送准备请求,参与者执行事务并回复是否同意提交;提交阶段中,若所有参与者同意,则协调者发送提交请求,否则发送回滚请求。MySQL通过这种方式保证了分布式事务的一致性,并引入组提交机制减少磁盘I/O次数,提升性能。
42 4
图解MySQL【日志】——两阶段提交
|
21天前
|
关系型数据库 MySQL 数据库
MySQL日志
本文介绍了MySQL中三个重要的日志:binlog、redolog和undolog。binlog记录数据库更改操作,支持数据恢复、复制和审计;redolog保证事务的原子性和持久性,实现crash-safe;undolog用于事务回滚及MVCC的实现。每个日志都有其独特的作用和应用场景,确保数据库的稳定性和数据一致性。
|
23天前
|
关系型数据库 MySQL
图解MySQL【日志】——磁盘 I/O 次数过高时优化的办法
当 MySQL 磁盘 I/O 次数过高时,可通过调整参数优化。控制刷盘时机以降低频率:组提交参数 `binlog_group_commit_sync_delay` 和 `binlog_group_commit_sync_no_delay_count` 调整等待时间和事务数量;`sync_binlog=N` 设置 write 和 fsync 频率,`innodb_flush_log_at_trx_commit=2` 使提交时只写入 Redo Log 文件,由 OS 择机持久化,但两者在 OS 崩溃时有丢失数据风险。
39 3
|
4天前
|
SQL 存储 关系型数据库
简单聊聊MySQL的三大日志(Redo Log、Binlog和Undo Log)各有什么区别
在MySQL数据库管理中,理解Redo Log(重做日志)、Binlog(二进制日志)和Undo Log(回滚日志)至关重要。Redo Log确保数据持久性和崩溃恢复;Binlog用于主从复制和数据恢复,记录逻辑操作;Undo Log支持事务的原子性和隔离性,实现回滚与MVCC。三者协同工作,保障事务ACID特性。文章还详细解析了日志写入流程及可能的异常情况,帮助深入理解数据库日志机制。
|
26天前
|
缓存 关系型数据库 MySQL
图解MySQL【日志】——Buffer Pool
Buffer Pool 是数据库管理系统(DBMS)中用于缓存磁盘数据页的内存区域,主要包含数据页、索引页、undo 页等。它通过减少磁盘 I/O 提升性能,特别是在处理大型数据库时效果显著。查询时,整个数据页而非单条记录会被加载到 Buffer Pool 中,以提高访问效率。
23 0
图解MySQL【日志】——Buffer Pool
|
26天前
|
存储 关系型数据库 MySQL
图解MySQL【日志】——Undo Log
Undo Log(回滚日志)是 MySQL 中用于实现事务原子性和一致性的关键机制。在默认的自动提交模式下,MySQL 隐式开启事务,每条增删改语句都会记录到 Undo Log 中。其主要作用包括:
36 0