视频网站数据平台变迁之路(二)

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
日志服务 SLS,月写入数据量 50GB 1个月
简介: 摘要:上一篇主要介绍了 数据系统架构V1 总体架构及 数据采集与数据存储,本篇我们来聊聊架构下的数据分析遇到的各种情况

2.数据分析

_
  参考数据系统架构V1,当时的分析服务器是个多台单独的服务器。由于每台服务器分析业务互相独立,算不上分布式计算也算不上集群。当时单台分析服务器工作流程如下:

  • crontab 执行任务
  • 启动脚本,从磁盘阵列同步上一天全天日志到本地磁盘
  • 启动程序,从配置文件中找到属于本分析服务器IP的分析任务
  • 执行分析任务,并将结果写入数据库或文件里
  • 执行下一个分析任务...

  分析的整体代码是通过PHP自主研发的一个小型框架,这里的部署和调整还算比较方便,我们大部分时间需要维护的只是一个各服务器分析任务的配置文件,扩容时也比较简单。


  没多久,我们就上了新业务,需要分析视频的播放量和停留时间。播放量还好比PV值略小,但停留时间采用的发心跳的方式,所以日志量就比较大了。对当时的整体架构来说,要有很大的改动,上篇提到的'请求会先通过php根据用户cookie的Hash转发到不同的服务器上'就是为了满足这个业务的。

  为什么我们要做Hash转发,而不是直接负载均衡到每台服务器呢?主要是为了满足分布式UV计算的(UV是unique visitor的简写,是指通过互联网访问、浏览这个网页的自然人),由于UV分析时需要去除重复,所以Hash以后每台采集服务器日志中的用户都不会重复,这样就满足了需求。

  当时我们有各种维度的UV数据需求。在当前系统架构下,每台服务器需要从磁盘阵列上获取上一天全量的日志进行分析任务。当日志量一大,分析服务器的内存和磁盘都成了瓶颈。由于单台服务器的计算能力有限,所以我们转成了分布式数据处理。具体做了下面的三个步骤:

  • 采集服务器的更改,同一用户的数据会在同一台服务器上
  • 分析服务器的更改,从磁盘阵列获取分析任务所需日志,而不是上一天的全量日志
  • 报表系统的更改,每个ip计算的数据会在数据库中有个标识,计算总体的UV数据时需要累加

  经过上面的三个步骤,一个简单的分布式计算就完成了。举个栗子,采集服务器有6台,分析服务器有2台,那么每台分析服务器拿3份日志即可,分析完成以后数据库中UV数据的IP维度上有两个IP的值,进行累加既是UV总量。


  总结一下遇到的问题:

  • 服务器监控层面的缺失,包括单点服务器健康状态(负载、磁盘、心跳)
  • 单点宕机时,分析任务在其它服务器下的补救
  • 多人协同开发下,分析服务器配置文件管理混乱(老业务变更优先级,新业务加入,单点宕机时的补救===),经常发生代码冲突
  • 某些需求无法满足,例如月UV的数据统计,这种需要将一个月几T、几十T的日志读取并按维度计算独立用户的需求。究其原因主要是磁盘阵列同步数据到分析服务器的时间太长
  • 分析服务器任务列表中某一任务中止以后,其它任务也随之中止
  • 扩容的时候越来越麻烦,采集、分析、报表都要跟着有所变动
相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
数据采集 监控 数据挖掘
视频网站数据平台变迁之路(一)
Google在2005年收购了Urchin,在2006年以免费工具的形式发布了Google Analytics,Google Analytics功能非常强大,只要在网站的页面上加入一段代码,就可以提供丰富详尽的图表式报告。优酷随后也开始了自建数据系统之路
1340 0
|
26天前
|
存储 机器学习/深度学习 分布式计算
大数据技术——解锁数据的力量,引领未来趋势
【10月更文挑战第5天】大数据技术——解锁数据的力量,引领未来趋势
|
5天前
|
数据采集 监控 数据管理
数据治理之道:大数据平台的搭建与数据质量管理
【10月更文挑战第26天】随着信息技术的发展,数据成为企业核心资源。本文探讨大数据平台的搭建与数据质量管理,包括选择合适架构、数据处理与分析能力、数据质量标准与监控机制、数据清洗与校验及元数据管理,为企业数据治理提供参考。
26 1
|
27天前
|
分布式计算 关系型数据库 MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
45 3
|
2天前
|
消息中间件 分布式计算 大数据
数据为王:大数据处理与分析技术在企业决策中的力量
【10月更文挑战第29天】在信息爆炸的时代,大数据处理与分析技术为企业提供了前所未有的洞察力和决策支持。本文探讨了大数据技术在企业决策中的重要性和实际应用,包括数据的力量、实时分析、数据驱动的决策以及数据安全与隐私保护。通过这些技术,企业能够从海量数据中提取有价值的信息,预测市场趋势,优化业务流程,从而在竞争中占据优势。
20 1
|
4天前
|
数据采集 分布式计算 大数据
数据治理之道:大数据平台的搭建与数据质量管理
【10月更文挑战第27天】在数字化时代,数据治理对于确保数据资产的保值增值至关重要。本文探讨了大数据平台的搭建和数据质量管理的重要性及实践方法。大数据平台应包括数据存储、处理、分析和展示等功能,常用工具如Hadoop、Apache Spark和Flink。数据质量管理则涉及数据的准确性、一致性和完整性,通过建立数据质量评估和监控体系,确保数据分析结果的可靠性。企业应设立数据治理委员会,投资相关工具和技术,提升数据治理的效率和效果。
19 2
|
6天前
|
存储 安全 大数据
大数据隐私保护:用户数据的安全之道
【10月更文挑战第31天】在大数据时代,数据的价值日益凸显,但用户隐私保护问题也愈发严峻。本文探讨了大数据隐私保护的重要性、面临的挑战及有效解决方案,旨在为企业和社会提供用户数据安全的指导。通过加强透明度、采用加密技术、实施数据最小化原则、加强访问控制、采用隐私保护技术和提升用户意识,共同推动大数据隐私保护的发展。
|
10天前
|
SQL 存储 大数据
大数据中数据提取
【10月更文挑战第19天】
27 2
|
26天前
|
SQL 消息中间件 大数据
大数据-159 Apache Kylin 构建Cube 准备和测试数据(一)
大数据-159 Apache Kylin 构建Cube 准备和测试数据(一)
41 1
|
26天前
|
SQL 大数据 Apache
大数据-159 Apache Kylin 构建Cube 准备和测试数据(二)
大数据-159 Apache Kylin 构建Cube 准备和测试数据(二)
63 1