Uber市场部门日志实时处理-解读

本文涉及的产品
对象存储 OSS,20GB 3个月
文件存储 NAS,50GB 3个月
日志服务 SLS,月写入数据量 50GB 1个月
简介: Kafka 2016 Summit上Uber工程师Danny Yuan分享了一个Streaming Processing PPT,如何解决Uber里Operation Team所需要的需求。看了整个视频觉得介绍很细致,这对于大部分LBS (Location Based Service)有很好的借鉴意

Kafka 2016 Summit上Uber工程师Danny Yuan分享了一个Streaming Processing PPT,如何解决Uber里Operation Team所需要的需求。看了整个视频觉得介绍很细致,这对于大部分LBS (Location Based Service)有很好的借鉴意义。

业务需求

Realtime OLAP

对于Operation部门而言,实时性很重要:

  • 当前时间点,全球有多少量车在运行?有多少量车在空驶?
  • 最近10分钟内,有多少UberX(类似于滴滴中的商务专车)在SF出现,热点地区在哪里?
  • 每个区域的平均行驶时间、以及其他指标分别是多少?

作者给出了一个示意图,我们可以解读下:

  1. 右侧是一个湾区的地图,通过蜂窝状六边形把坐标划分若干区域,红色就代表车的密集程度
  2. 左侧是该区域在过去N分钟内各项指标的变化情况,例如平均的形式距离,接单率,平均客单价等
  3. 通过筛选时间段、指标(Metric)等,可以全方面了解运营状况

screenshot

这个图表让我相当了之前用TreeMap来监控集群利用率的场景,如出一辙。

  • 左侧通过HeatMap显示各个机架上的不同时间段上Metric变化情况
  • 右侧则是各指标在时间段上分布的场景

只不过在机器运维的Portal上显示的是,只不过我们面对的是集群,Uber面对的是车与地图:)

screenshot

CEP(Complex Event Processing)复杂事件处理

例子:

  1. 有多少个司机在最近10分钟内取消了3次接单以上?
  2. 如果发现后,会通过聊天软件与司机对话

Supply Position 供求关系可视化

在什么位置供大于求,什么位置求大于供:

  • 黄色的点代表需求
  • 蓝色的店代表供应

screenshot

处理的挑战

如何表示车辆的位置数据

地理位置函数,一般用得比较多的是GeoHash,通过切分空间的方法把二维坐标,转化成一维的数字。两个区间的比较查询,就演变成一个一维的比较函数。

Uber的做法正好相反,将坐标转化成一个特定的区域,通过六边形的办法来逼近真实的位置。使用六边形有这样几个好处:

  1. 方便检索、查询、渲染
  2. 容易找到周围相邻的邻居
  3. 每个区域大小相同,形状相同

数据规模巨大

时间、空间、车辆状态、地理位置等组合会非常大

  • 时间代表某一个时刻
  • 空间在时间点上车的位置(例如LA,SF)
  • 汽车的类型
  • 状态(运行中,接单中,已接单出发地中等)

screenshot

为了减少空间的规模:在地理位置、时间两个维度做了“取整”处理。通过六边形区域取整了地里位置,通过分钟级采样减少了其他状态,一天的数据量为

1dayofdata:300x10,000x7x1440x13=393billion
AI 代码解读

原始的数据为:

time, carID, locationX, locationY, status, .....
AI 代码解读

查询与计算的需求

  1. 车的种类、状态非常多、因此查询场景是面向多维数据的。
  2. 需要支持Heatmap,Top K, Histogram,count,avg,sum,percentage等计算函数
  3. 巨大数据量:

    • 每秒百万级事件产生
    • 每个事件中有20+Field
  4. 多种数据源

    • 司机端事件
    • 乘客端事件

Uber实时数据处理架构

screenshot

分为5个部分:

  1. 日志、事件数据来源框架 - Kafka
  2. 数据清洗与处理,前置处理 - Samza
  3. 存储系统 - Elastic Search
  4. 数据读取,后置处理 - 自己开发的框架
  5. 查询与构建与查询 - 自己构建
  6. 应用层 - Web

数据采集与Kafka

这个Slides里面没有提到Uber架构,Google上找了一些相关的材料,整体架构如下:

screenshot

数据来源有:

  • Rider App
  • Driver App
  • API/Service(服务端)
  • Dispatch (GPS 运行数据)
  • Mapping & Logistic

日志、事件采集上在Kafka层包了Restful API,提供Java、Python、Go、NodeJS的SDK:

screenshot

通过Samza进行清洗

主要有:

  1. Transformation(坐标转化):GPS坐标是二维的,为了能够根据城市和地域查询,转化成更离散化的数据:ZipCode、Hexagon(六边形坐标)、城市等。 (Lat, Long) -> (zipcode, hexagon, S2)
  2. Pre-Aggregation:将一分钟数据归并成1分钟取整
  3. Join Multiple Stream:例如Driver Status、Rider Status进行合并
  4. Sessionization:将乘客的状态进行串联
From driver_canceled#window.time(10 min)
SELECT clientUUID, count(clientUUID) as cancelCount
GROUP BY clientUUID HAVING cancelCount > 3
INSERT INTO hipchat(room);
AI 代码解读

以上是一个ETL任务,每隔10分钟执行一次,既从Kafka中获得数据判断有问题的司机列表

通过这样的架构,支持运营人员能够在ES中清晰、索引的数据,获得实时分析能力:
screenshot

同时由于在ES上层包装Query机制,也支持稍微复杂一些的离线查询。ES存储本身不是很好的离线方式,但对于离线查询频率不多的场景,也是够用的:
screenshot

作者选型考虑

Lamdba vs Kappa

最终使用了Lamdba架构,数据分别走一遍实时,离线。看起来比较浪费,但有几个考虑:

  1. Spark + S3 for batch processing
  2. 会有补数据的需求,通过实时计算并不一定能满足,比如通过EventTime进行计算,并非Kafka中到服务端的时间
  3. 不同的存储解决不同目的

Samza的问题:

  1. 不能动态扩展
  2. 部署较为不便

一些看法

对于数据运营团队而言,重要的是实时性、另外就是大规模、准实时Muti-Dimension OLAP能力,特别是面对大量数据的场景下,如何在分钟级延时中获得筛选的数据与需求。这也是ELK这样技术方案受欢迎的原因。

对于地理位置类服务,数据预处理比较重要,例如根据IP获得省市范围,运营商等。根据GPS经纬度获得国家,城市,邮政编码等信息。根据地址信息获得坐标等。这些坐标转换有2类做法,在写入前通过Flume等插件计算,带来的问题是规模、并发不是很理想。第二种处理方法就是通过kafka这样管道读取,在下游进行计算与消费。在日志落到存储系统前,适当的清晰与Join是必要的。

没有一种存储引擎是万能,需要根据自己的需求来定制。ES提供的索引、列存储等能力还是非常适合对于事件类数据的存储与查询。目前最现实的做法还是数据收集一份,同时投递到多个系统中。

数据在写入存储前需要清洗,否则事后会带来非常大的代价。

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
打赏
0
0
0
2
4532
分享
相关文章
蚂蚁金服数据洞察分析平台DeepInsight:人人都是数据分析师
小蚂蚁说: 大数据时代,由数据驱动的用户行为分析、运营分析、业务分析无疑是最被关注的“热词”,尤其对于拥有海量数据的大中型企业来说,对数据的需求已远远超越了传统数据报表所能提供的范畴。如何运用自助式BI实现当代企业精细化运营,已成为企业运营管理的新课题。
7299 0
【云计算与大数据技术】流计算讲解及集群日志文件实时分析实战(附源码)
【云计算与大数据技术】流计算讲解及集群日志文件实时分析实战(附源码)
149 1
实时即未来,车联网项目之车辆驾驶行为分析【五】
单次行驶里程区间分布、单次行程消耗soc区间分布、最大里程分布、充电行程占比、平均行驶里程分布、周行驶里程分布、最大行驶里程分段统计、常用行驶里程、全国-每日平均行驶里程(近4周)、全国-单车日均行驶里程分布(近一年)、各车系单次最大行驶里程分布、不同里程范围内车辆占比情况。
394 0
实时即未来,车联网项目之车辆驾驶行为分析【五】
阿里云MVP Meetup 《云数据·大计算:海量日志数据分析与应用》之《数据应用:数据服务》篇
本文主要阐述在使用DataWorks(数据工场)的过程中如何使用数据服务模块,快速将已生成的数据给用起来。此功能可用于快速将数仓中的结果表生成API,通过API给下游应用使用,或者通过API服务完成数据共享等。
1453 0
实时计算在「阿里影业实时报表业务」技术解读
阿里影业实时报表开始做法也是按照传统型报表做法一样,直接从阿里云rds写sql查询,随着数据量越来越大,这种做法已经没有办法满足业务扩张,带来的问题响应时间变慢,吞吐量低,我们急需要一种技术方案能满足未来2-3年随着影院增加,数据增长,而报表功能还能很好的满足客户需求技术方案。
4916 0
阿里云MVP Meetup 《云数据·大计算:海量日志数据分析与应用》之《数据采集:日志数据上传》篇
大数据workshop:《云数据·大计算:海量日志数据分析与应用》之《数据采集:日志数据上传》篇
4077 0
阿里云MVP Meetup 《云数据·大计算:海量日志数据分析与应用》之《数据质量监控》篇
本手册为阿里云MVP Meetup Workshop《云计算·大数据:海量日志数据分析与应用》的《数据质量监控》篇而准备。主要阐述在使用大数据开发套件过程中如何将已经采集至MaxCompute上的日志数据质量进行监控,学员可以根据本实验手册,去学习如何创建表的监控规则,如何去订阅表等。
3999 0
大数据workshop:《云数据·大计算:海量日志数据分析与应用》之《数据采集:日志数据上传》篇
本手册为云栖大会Workshop《云计算·大数据:海量日志数据分析与应用》的《数据采集:日志数据上传》篇而准备。主要为保障各位学员在workshop当天能够顺畅进行动手实操,那么本节为学员掌握阿里云数据采集的操作和使用。
5874 0
【大数据干货】轻松处理每天2TB的日志数据,支撑运营团队进行大数据分析挖掘,随时洞察用户个性化需求。
“用户每天产生的日志量大约在2TB。我们需要将这些海量的数据导入云端,然后分天、分小时的展开数据分析作业,分析结果再导入数据库和报表系统,最终展示在运营人员面前。”墨迹天气运维部经理章汉龙介绍,整个过程中数据量庞大,且计算复杂,这对云平台的大数据能力、生态完整性和开放性提
16818 3

云存储

+关注
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等