流计算

首页 标签 流计算
# 流计算 #
关注
31297内容
广告场景下的实时计算
案例与解决方案汇总页:阿里云实时计算产品案例&解决方案汇总 广告场景的综述,[计算广告与流处理技术综述](https://yq.aliyun.com/articles/691816): 在线流量反作弊、在线计费、在线反馈、在线索引、在线广告链接检测等 其中涉及的主要实时处理环节: 实时数据统计.
如何让双十一数据大屏讲出故事?设计有口诀
大家应该都看过阿里巴巴最近5年每年“双11”的数据大屏,阿里为什么要做数据大屏呢?这样做能给客户带来什么?怎么做阿里这样的大屏幕?2016云栖大会成都峰会上,阿里云数据事业部产品专家永翎给我们解答了这些问题。
8月3日科技联播:新型VR头盔可令盲人重获光明 ,联通阿里成立合资企业“云粒智慧”
你是我的眼~最新VR头盔可以带给盲人光明!联通和阿里联手了?来看看今天科技圈发生的几件大事儿!听说不想上天的海藻都不是好燃料?英飞凌拟收购ST半导体,完成巨大飞跃!还有会处理受伤海洋生物的机器人助手?......快来看看今天的科技圈大事件吧~
如何在 PyFlink 1.10 中自定义 Python UDF?
本篇从架构到 UDF 接口定义,再到具体的实例,向大家介绍了在 Apache Flink 1.10 发布之后,如何利用 PyFlink 进行业务开发。
Apache Flink 漫谈系列(04) - State
实际问题 在流计算场景中,数据会源源不断的流入Apache Flink系统,每条数据进入Apache Flink系统都会触发计算。如果我们想进行一个Count聚合计算,那么每次触发计算是将历史上所有流入的数据重新新计算一次,还是每次计算都是在上一次计算结果之上进行增量计算呢?答案是肯定的,Apache Flink是基于上一次的计算结果进行增量计算的。
PWA系列 - Web Workers 线程模型
本文是Chromium官方设计文档Blink Workers主旨内容的翻译,介绍ServiceWorker在内核层面的一些基本概念和线程模型。
| |
来自: 云存储
日志服务(SLS)集成 Spark 流计算实战
日志服务集成 Spark 流式计算:使用Spark Streaming和Structured Streaming对采集到日志服务中的数据进行消费,计算并将结果写回到日志服务。
使用 Kafka 和 Flink 构建实时数据处理系统
引言 在很多领域,如股市走向分析, 气象数据测控,网站用户行为分析等,由于数据产生快,实时性强,数据量大,所以很难统一采集并入库存储后再做处理,这便导致传统的数据处理架构不能满足需要。流计算的出现,就是为了更好地解决这类数据在处理过程中遇到的问题。
免费试用