日志服务+流计算+RDS 统计网站访问日志

本文涉及的产品
RDS AI 助手,专业版
RDS MySQL DuckDB 分析主实例,基础系列 4核8GB
RDS MySQL DuckDB 分析主实例,集群系列 4核8GB
简介: 众所周知,在阿里云所有的产品里,很多产品不需要写代码也能做出炫酷的demo,操作简单,容易上手。最近流计算开始公测,所谓世间万事万物,我们都要挑点来尝尝,拿它做个什么demo捏?请看本期云享团分享。
本期分享专家:黄莉娟,具有多年前端开发经验,曾就职于天基,在阿里云从事大数据产品、日志服务、消息产品的技术支持,喜欢研究新技术分享新产品。我的口号“我就爱玩新产品!别叫我停下来”
b2afd431f16e95521ffa820d91a6f0618813e820
众所周知,在阿里云所有的产品里,很多产品不需要写代码也能做出炫酷的demo,操作简单,容易上手。最近流计算开始公测,所谓世间万事万物,我们都要挑点来尝尝,拿它做个什么demo捏,在思考了四分之一柱香之后,我决定写一个先有鸡还是先有蛋的故事。
是的,写个自己统计自己访问日志的网站,是不是为了做demo完全不要节操!
这个demo很适合初学者!

step 1、准备工作日志生成过程

首先把/etc/nginx/nginx.conf 配置一下,搞个跳转
location / {
proxy_pass http://127.0.0.1:3000;
}

一会3000这个端口我们用nodejs起个http server,这样访问根目录就跳转到我的nodejs网站了,为了要个nginx的日志,我不择手段,为什么要统计nginx日志呢,因为有个现成的介绍,不会的请戳这里https://help.aliyun.com/document_detail/28988.html

配置好以后,sls的控制台看,日志长这样

4aa615e27fb00c1a7c9ca6d8f8cdfe5b801027e6

step 2、在RDS建结果表

然后我们用流计算把日志服务的数据挖出来丢到rds,网站读rds搞点图图粗来,刷一下rds变一下,是不是很想给我的脑袋来上一枪!

先给rds建两张表,我们会把结果放在这两张表里,统计日志的网站读这两张表就行了。为了方便简单两张表建一样的格式好了。
CREATE TABLE `sls_event` (
  `time` int(11) NOT NULL DEFAULT '0',
  `event_type` char(32) NOT NULL DEFAULT '',
  `event_value` char(128) NOT NULL DEFAULT '',
  `value` int(11) DEFAULT NULL,
  PRIMARY KEY (`time`,`event_type`,`event_value`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

CREATE TABLE `sls_status` (
  `time` int(11) NOT NULL DEFAULT '0',
  `event_type` char(32) NOT NULL DEFAULT '',
  `event_value` char(128) NOT NULL DEFAULT '',
  `value` int(11) DEFAULT NULL,
  PRIMARY KEY (`time`,`event_type`,`event_value`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;


step 3、使用流计算计算日志数据并输出到RDS表

开通流计算,开通好以后,可以看见控制台长这样:

6901da3b7b39e12ac28beb934b56ebb981eb13d7
把里面sql抠出来放在这:

---------------------------------------我是stream sql的分割线-------------------------------------------------------

--1.首先定义下数据源的表,这里我们用type='loghub',直接就能把loghub中的数据读出来

CREATE STREAM TABLE source_test_sls_galaxy (ip STRING, status INT, request STRING,refer STRING,user_agent STRING ) 
WITH ( type='loghub', endpoint='http://project_region.log.aliyuncs.com', accessId='!@#$',accessKey='@#$%', projectName='#$$%%', logstore='!@#$%' );

--2.然后定义个两个RDS的表type='mysql' 作为输出结果表

CREATE RESULT TABLE sls_event (
time                INT,
event_type          STRING,
event_value         STRING,
value               INT
) WITH (
type='mysql',
url='jdbc:mysql://@#$%:3306/@$$%',
username='@#$%',
password='@#$%',
tableName='sls_event'
);

CREATE RESULT TABLE sls_status (
time                INT,
event_type          STRING,
event_value         STRING,
value               INT
 ) WITH (
type='mysql',
url='jdbc:mysql://@#$%:3306/@$$%',
username='@#$%',
password='@#$%',
tableName='sls_event'
);

-- 3. 定义下计算逻辑

INSERT INTO sls_event select
   prop_get('__time__') as time,
   'pv' as event_type,
   'get' as event_value,
   COUNT(1) as value
FROM source_test_sls_galaxy
GROUP BY prop_get('__time__');

INSERT INTO sls_status select
   prop_get('__time__') as time,
   'status' as event_type,
   status as event_value,
   COUNT(1) as value
FROM source_test_sls_galaxy
GROUP BY prop_get('__time__'),status;

---------------------------------------我还是stream sql的分割线-------------------------------------------------------

注意下!!!sql里面我用了 prop_get('__time__'),这个是loghub的系统字段时间__time__,必须通过消息属性传递进来,普通的日志服务的key写在数据源的表就可以了,系统字段不用写,配置下任务参数,直接用,可以参考下http://gitlab.alibaba-inc.com/galaxy/galaxy/wikis/prop-functions

任务参数这么写:
galaxy.input.props.keylist=timestamp,__time__
截个图。最后一行红圈圈是我加的:

2bb21d0d84662a0ddfb0a1e49a2fd2bad9f3f0f3

然后轻轻的点击下“上线”,上线成功后,再轻轻的点击下“运维”,进去把任务启动起来。

启动好之后,看起来是酱紫滴,输入RPS是有东西的。当然之所以有输入,是因为我访问了一下我的网站了~~
8a059e7fcd8ad886b8555e2d84b977c6e8488016


step 4、在网站上的展示效果,刷一刷就会看到变化

来刷刷我们的网站,就是我用nodejs启动的在3000端口,nginx配置了跳转的那一个咯。

-- 先看看网站的PV统计,是流计算的这句sql搞出来的
INSERT INTO sls_event select
prop_get('__time__') as time,
'pv' as event_type,
'get' as event_value,
COUNT(1) as value
FROM source_test_sls_galaxy
GROUP BY prop_get('__time__');
abe9c92c36260c2d902b85d68c940cbd7101ec53

-- 再看看网站的状态码统计,是流计算的这句sql搞出来的
INSERT INTO sls_status select
prop_get('__time__') as time,
'status' as event_type,
status as event_value,
COUNT(1) as value
FROM source_test_sls_galaxy
GROUP BY prop_get('__time__'),status;

367d6ebb0118c3720a96a67a5b2ffd126efacbb0

当然,刷一下网站,数据就会变一下!
是不是吼神奇!
"我就爱玩新产品!别叫我停下来!"

本期分享结束啦 ,想让云享团分享哪些技术, 欢迎大家留言讨论,我们下期再见。
相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。   相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情: https://www.aliyun.com/product/rds/mysql 
相关文章
|
5月前
|
SQL 运维 关系型数据库
深入探讨MySQL的二进制日志(binlog)选项
总结而言,对MySQL binlogs深度理解并妥善配置对数据库运维管理至关重要;它不仅关系到系统性能优化也是实现高可靠性架构设计必须考虑因素之一。通过精心规划与周密部署可以使得该机能充分发挥作用而避免潜在风险带来影响。
184 6
|
5月前
|
SQL 关系型数据库 MySQL
排除通过IP访问MySQL时出现的连接错误问题
以上步骤涵盖了大多数遇到远程连接 MySQL 数据库时出现故障情形下所需采取措施,在执行每个步骤后都应该重新尝试建立链接以验证是否已经解决问题,在多数情形下按照以上顺序执行将能够有效地排除并修复大多数基本链接相关故障。
434 3
|
7月前
|
缓存 关系型数据库 MySQL
MySQL并发访问与高负载处理方法
综上所述,提高MySQL并发能力和处理高负载的策略涵盖了硬件配置、软件优化、架构调整以及运维监控等多个方面。通过综合施策,可以确保数据库系统在面对不断增长的并发需求时,维持高效和稳定的性能。
349 8
|
11月前
|
数据可视化 关系型数据库 MySQL
ELK实现nginx、mysql、http的日志可视化实验
通过本文的步骤,你可以成功配置ELK(Elasticsearch, Logstash, Kibana)来实现nginx、mysql和http日志的可视化。通过Kibana,你可以直观地查看和分析日志数据,从而更好地监控和管理系统。希望这些步骤能帮助你在实际项目中有效地利用ELK来处理日志数据。
821 90
|
9月前
|
SQL 监控 关系型数据库
MySQL日志分析:binlog、redolog、undolog三大日志的深度探讨。
数据库管理其实和写小说一样,需要规划,需要修订,也需要有能力回滚。理解这些日志的作用与优化,就像把握写作工具的使用与运用,为我们的数据库保驾护航。
419 23
|
10月前
|
SQL 运维 关系型数据库
MySQL Binlog 日志查看方法及查看内容解析
本文介绍了 MySQL 的 Binlog(二进制日志)功能及其使用方法。Binlog 记录了数据库的所有数据变更操作,如 INSERT、UPDATE 和 DELETE,对数据恢复、主从复制和审计至关重要。文章详细说明了如何开启 Binlog 功能、查看当前日志文件及内容,并解析了常见的事件类型,包括 Format_desc、Query、Table_map、Write_rows、Update_rows 和 Delete_rows 等,帮助用户掌握数据库变化历史,提升维护和排障能力。
|
12月前
|
关系型数据库 MySQL 数据库
图解MySQL【日志】——两阶段提交
两阶段提交是为了解决Redo Log和Binlog日志在事务提交时可能出现的半成功状态,确保两者的一致性。它分为准备阶段和提交阶段,通过协调者和参与者协作完成。准备阶段中,协调者向所有参与者发送准备请求,参与者执行事务并回复是否同意提交;提交阶段中,若所有参与者同意,则协调者发送提交请求,否则发送回滚请求。MySQL通过这种方式保证了分布式事务的一致性,并引入组提交机制减少磁盘I/O次数,提升性能。
1037 5
图解MySQL【日志】——两阶段提交
|
11月前
|
存储 监控 算法
基于 PHP 语言的滑动窗口频率统计算法在公司局域网监控电脑日志分析中的应用研究
在当代企业网络架构中,公司局域网监控电脑系统需实时处理海量终端设备产生的连接日志。每台设备平均每分钟生成 3 至 5 条网络请求记录,这对监控系统的数据处理能力提出了极高要求。传统关系型数据库在应对这种高频写入场景时,性能往往难以令人满意。故而,引入特定的内存数据结构与优化算法成为必然选择。
296 3
|
12月前
|
关系型数据库 MySQL
图解MySQL【日志】——磁盘 I/O 次数过高时优化的办法
当 MySQL 磁盘 I/O 次数过高时,可通过调整参数优化。控制刷盘时机以降低频率:组提交参数 `binlog_group_commit_sync_delay` 和 `binlog_group_commit_sync_no_delay_count` 调整等待时间和事务数量;`sync_binlog=N` 设置 write 和 fsync 频率,`innodb_flush_log_at_trx_commit=2` 使提交时只写入 Redo Log 文件,由 OS 择机持久化,但两者在 OS 崩溃时有丢失数据风险。
292 3
|
12月前
|
关系型数据库 MySQL 数据库
MySQL日志
本文介绍了MySQL中三个重要的日志:binlog、redolog和undolog。binlog记录数据库更改操作,支持数据恢复、复制和审计;redolog保证事务的原子性和持久性,实现crash-safe;undolog用于事务回滚及MVCC的实现。每个日志都有其独特的作用和应用场景,确保数据库的稳定性和数据一致性。
231 1

推荐镜像

更多