技术领域
云计算
大数据
人工智能
IoT
云原生
数据库
开发与运维
微服务
安全
最热圈子
阿里云物联网
阿里云实时计算
阿里巴巴大数据计算
阿里巴巴研发效能
阿里中间件
支付宝开发者社区
阿里云容器服务
阿里云存储服务
阿里云数据库
蚂蚁金服科技
更多圈子 >>
推荐关注
阿里巴巴云原生
新零售淘系技术
阿里云支持与服务
AlibabaF2E
数字化转型研究联盟
宜搭
阿里技术
阿里云 MVP
开发者学习资源库
Java开发者
API
SDK
云产品工具
开源工具
镜像站
Code Sample
学习中心
技能测试中心
公开课
考试认证
社群
阿里云MVP
ACE同城会
共创空间
线下活动
天池
大赛
实验室
数据集
创新创业
创新资讯
风池计划
园区入驻
AI赛道明星
加速器
个人中心
kafka是可以批量读取数据,但是flink是一条一条处理的,应该也可以一条一条提交吧。 本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。 点击这里欢迎加入感兴趣的技术领域群。
一条一条提交,Kafka的压力肯定山大。。。如果不想丢数据,只能尽量把checkpoint的周期设短一点
flink的处理跟kafka的提交没关系
一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。