云消息队列 Kafka 版

首页 标签 云消息队列 Kafka 版
硅谷飘来五个字,SMACK

上次我们跟大家分享了「少打一局王者荣耀就能上手Spring Cloud?!」,学到就是赚到,翘课的同学抓紧补习了。本期为大家带来全新「与硅谷大数据工程师吃着火锅唱着歌就把SMACK入门了」篇。
| |
来自: 云存储
使用日志服务LogHub替换Kafka
前几天有客户问到,云上有什么服务可以替换Kafka? 怀着程序员的一丝小小的骄傲回复:日志服务(原SLS)下LogHub功能可以完全替代Kafka等产品,并且在性能、易用性和稳定性上更佳。 但客户将信将疑,于是花了一天时间整理一篇文章,简单从各个角度解释下为何建议用户从自搭Kafka换成
| |
来自: 云存储
《Kafka Stream》调研:一种轻量级流计算模式
流计算,已经有Storm、Spark,Samza,包括最近新起的Flink,Kafka为什么再自己做一套流计算呢?Kafka Stream 与这些框架比有什么优势?Samza、Consumer Group已经包装了Kafka轻量级的消费功能,难道不够吗? 花了一些时间阅读[docs](http
Spring Batch 4.2 新特性
Spring Batch 4.2 的发行版主要增强了下面的改进: 使用 Micrometer 来支持批量指标(batch metrics)支持从 Apache Kafka topics 读取/写入(reading/writing) 数据支持从 Apache Avro 资源中读取/写入(reading/writing) 数据改进支持文档使用 Micrometer 的批量指标 本发行版本介绍了可以让你通过使用 Micrometer 来监控你的批量作业。
MongoShake——基于MongoDB的跨数据中心的数据复制平台
MongoShake是基于MongoDB的通用型平台服务,作为数据连通的桥梁,打通各个闭环节点的通道。通过MongoShake的订阅消费,可以灵活对接以适应不同场景,例如日志订阅、数据中心同步、监控审计等。其中,集群数据同步作为核心应用场景,能够灵活实现灾备和多活的业务场景。
阿里云 MaxCompute 2020-11 月刊
2020年11月MaxCompute发布支持以RAM角色身份访问使用服务以及支持消息队列Kafka版通过Connector持续导入数据新功能,详情请查看本月刊内容。
你的分布式应用真的需要那么多同步调用么?
在5月17日举办的2016云栖大会·武汉峰会上阿里中间件产品专家马雷(阿仁)就阿里中间件MQ做了精彩的演讲,告诉大家:阿里中间件团队的目标是让消息“传”无边界。本文也就为什么使用消息中间件,消息中间件的核心场景进行了分享。相信阿仁的分享会让大家对分布式应用的异步调用有更加深刻的了解。精彩不要错过!
| |
来自: 云存储
结构化大数据分析平台设计
前言  任何线上系统都离不开数据,有些数据是业务系统自身需要的,例如系统的账号,密码,页面展示的内容等。有些数据是业务系统或者用户实时产生的,例如业务系统的日志,用户浏览访问的记录,系统的购买订单,支付信息,会员的个人资料等。
免费试用