继续南山聊代码!Apache Kafka × Apache Flink Meetup · 深圳站

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: 8 月 31 日,Apache Flink Meetup 深圳站来啦,继续南山聊代码!本次 Meetup 由 Apache Flink(以下简称 Flink)与 Apache Kafka 联合举办,邀请到来自 Confluent 、中国农业银行 、虎牙直播、数见科技以及阿里巴巴等五位技术专家为大家呈现 Kafka 与 Flink 的技术盛宴。

8 月 31 日,Apache Flink Meetup 深圳站来啦,继续南山聊代码!本次 Meetup 由 Apache Flink(以下简称 Flink)与 Apache Kafka 联合举办,邀请到来自 Confluent 、中国农业银行 、虎牙直播、数见科技以及阿里巴巴等五位技术专家为大家呈现 Kafka 与 Flink 的技术盛宴。

image

▼ 活动亮点 ▼

  • Flink 1.9 版本中 SQL 的新增功能有哪些,现场 Demo 演示最佳实践的姿势和调优经验;
  • Confluent 资深系统工程师分享在现代数据驱动架构中 Kafka 扮演怎样的角色;
  • 中国农业银行分享 Flink 在金融科技的反欺诈、系统异常检测、实时数据统计等探索与实践;
  • 虎牙直播在混合云、边缘计算等新的基础资源框架下实时计算平台的探索与实现;
  • 数见科技 CTO 分享批流一体数据的集成平台下如何实现较为通用的精确一次语义保证;

报名链接点这里:http://flinkchina.huodongxing.com/event/9500789006600

活动流程

image

演讲主题及嘉宾介绍

《Apache Kafka 在现代数据驱动架构中的角色》

image

张子斌 | Confluent 大中华区资深系统工程师

个人简介:张子斌先生(Kenneth Cheung)在 IT 产业拥有超过 20 年之丰富经验,是将大数据分析以及数据数据探索解决方案带进亚太市场的先锋之一。近 10 年来,他专注于教育大中华区场以新的方式新的观念进行商业分析,并且成功的将数据探索引入金融,零售和制造等众多企业。最大的部署中就有单一企业使用者千人以上,而在商业智能之前,长达 5 年的时间致力于资讯安全领域上,曾为许多企业提供稽核及咨询服务。

《Apache Flink 在中国农业银行的探索和实践》

image

侯鑫磊 | 中国农业银行研发中心高级工程师

个人简介:侯鑫磊,自 09 年起从事信贷领域信息系统建设,先后参与实施信贷管理系统(C3)、新一代核心业务系统(BoEing)等多个农行重大工程,曾 2 次获得中国人民银行科技发展奖,对商业银行信息系统设计有丰富经验。

《混合云、边缘计算下的实时计算平台设计》

image

陈仕明 | 虎牙数据平台负责人

个人简介:陈仕明,虎牙数据平台负责人,一直从事数据相关的工作,从最初的企业数仓,到互联网数仓架构,再到大数据系统架构,拥有十年以上的行业经验。

《构建批流一体数据集成平台的一致性语义保证》

image

陈肃 | 博士,北京数见科技有限公司(DataPipeline)CTO

个人简介:陈肃致力于企业级数据集成平台的研发。曾就职于中国移动研究院(用户行为实验室负责人)、亿瑞互动科技有限公司(技术 VP)。对消息中间件、推荐系统等领域都有丰富的实践经验。拥有十项发明专利。

《Apache Flink SQL 1.9 最佳实践》

image

伍翀(云邪)| 阿里巴巴SQL引擎技术专家

个人简介:北京理工大学硕士毕业,2015 年加入阿里巴巴,参与阿里巴巴实时计算引擎 JStorm 的开发与设计。2016 年开始从事阿里新一代实时计算引擎 Blink SQL 的开发与优化,并活跃于 Flink 社区,于 2017 年初成为 Apache Flink Committer,Flink / Blink SQL 模块的核心开发之一。目前主要专注于分布式处理和实时计算,热爱开源,热爱分享。

如何参加

  • 活动时间:2019年8月31日 13:00 ~ 18:00
  • 活动地点:深圳软件产业基地 5B 栋 440 会议室

点击 “阅读原文” 马上报名!来现场了解 Flink 与 Kafka 的最新社区动态与应用实践,社区专刊也在现场等大家 ~

目录
相关文章
|
1月前
|
SQL Java API
Apache Flink 2.0-preview released
Apache Flink 社区正积极筹备 Flink 2.0 的发布,这是自 Flink 1.0 发布以来的首个重大更新。Flink 2.0 将引入多项激动人心的功能和改进,包括存算分离状态管理、物化表、批作业自适应执行等,同时也包含了一些不兼容的变更。目前提供的预览版旨在让用户提前尝试新功能并收集反馈,但不建议在生产环境中使用。
618 13
Apache Flink 2.0-preview released
|
24天前
|
消息中间件 安全 Kafka
Apache Kafka安全加固指南:保护你的消息传递系统
【10月更文挑战第24天】在现代企业环境中,数据的安全性和隐私保护至关重要。Apache Kafka作为一款广泛使用的分布式流处理平台,其安全性直接影响着业务的稳定性和用户数据的安全。作为一名资深的Kafka使用者,我深知加强Kafka安全性的重要性。本文将从个人角度出发,分享我在实践中积累的经验,帮助读者了解如何有效地保护Kafka消息传递系统的安全性。
50 7
|
24天前
|
消息中间件 数据挖掘 Kafka
Apache Kafka流处理实战:构建实时数据分析应用
【10月更文挑战第24天】在当今这个数据爆炸的时代,能够快速准确地处理实时数据变得尤为重要。无论是金融交易监控、网络行为分析还是物联网设备的数据收集,实时数据处理技术都是不可或缺的一部分。Apache Kafka作为一款高性能的消息队列系统,不仅支持传统的消息传递模式,还提供了强大的流处理能力,能够帮助开发者构建高效、可扩展的实时数据分析应用。
67 5
|
24天前
|
消息中间件 存储 监控
构建高可用性Apache Kafka集群:从理论到实践
【10月更文挑战第24天】随着大数据时代的到来,数据传输与处理的需求日益增长。Apache Kafka作为一个高性能的消息队列服务,因其出色的吞吐量、可扩展性和容错能力而受到广泛欢迎。然而,在构建大规模生产环境下的Kafka集群时,保证其高可用性是至关重要的。本文将从个人实践经验出发,详细介绍如何构建一个高可用性的Kafka集群,包括集群规划、节点配置以及故障恢复机制等方面。
58 4
|
24天前
|
消息中间件 监控 大数据
优化Apache Kafka性能:最佳实践与调优策略
【10月更文挑战第24天】作为一名已经对Apache Kafka有所了解并有实际使用经验的开发者,我深知在大数据处理和实时数据流传输中,Kafka的重要性不言而喻。然而,在面对日益增长的数据量和业务需求时,如何保证系统的高性能和稳定性成为了摆在我们面前的一个挑战。本文将从我的个人视角出发,分享一些关于如何通过合理的配置和调优来提高Kafka性能的经验和建议。
60 4
|
18天前
|
Java Apache C++
别再手写RPC了,Apache Thrift帮你自动生成RPC客户端及服务端代码
Thrift 是一个轻量级、跨语言的远程服务调用框架,由 Facebook 开发并贡献给 Apache。它通过 IDL 生成多种语言的 RPC 服务端和客户端代码,支持 C++、Java、Python 等。Thrift 的主要特点包括开发速度快、接口维护简单、学习成本低和多语言支持。广泛应用于 Cassandra、Hadoop 等开源项目及 Facebook、百度等公司。
别再手写RPC了,Apache Thrift帮你自动生成RPC客户端及服务端代码
|
24天前
|
消息中间件 Java Kafka
初识Apache Kafka:搭建你的第一个消息队列系统
【10月更文挑战第24天】在数字化转型的浪潮中,数据成为了企业决策的关键因素之一。而高效的数据处理能力,则成为了企业在竞争中脱颖而出的重要武器。在这个背景下,消息队列作为连接不同系统和服务的桥梁,其重要性日益凸显。Apache Kafka 是一款开源的消息队列系统,以其高吞吐量、可扩展性和持久性等特点受到了广泛欢迎。作为一名技术爱好者,我对 Apache Kafka 产生了浓厚的兴趣,并决定亲手搭建一套属于自己的消息队列系统。
45 2
初识Apache Kafka:搭建你的第一个消息队列系统
|
23天前
|
分布式计算 大数据 Apache
Apache Spark & Paimon Meetup · 北京站,助力 LakeHouse 架构生产落地
2024年11月15日13:30北京市朝阳区阿里中心-望京A座-05F,阿里云 EMR 技术团队联合 Apache Paimon 社区举办 Apache Spark & Paimon meetup,助力企业 LakeHouse 架构生产落地”线下 meetup,欢迎报名参加!
87 3
|
24天前
|
消息中间件 存储 负载均衡
Apache Kafka核心概念解析:生产者、消费者与Broker
【10月更文挑战第24天】在数字化转型的大潮中,数据的实时处理能力成为了企业竞争力的重要组成部分。Apache Kafka 作为一款高性能的消息队列系统,在这一领域占据了重要地位。通过使用 Kafka,企业可以构建出高效的数据管道,实现数据的快速传输和处理。今天,我将从个人的角度出发,深入解析 Kafka 的三大核心组件——生产者、消费者与 Broker,希望能够帮助大家建立起对 Kafka 内部机制的基本理解。
54 2
|
22天前
|
消息中间件 Ubuntu Java
Ubuntu系统上安装Apache Kafka
Ubuntu系统上安装Apache Kafka

推荐镜像

更多