EventBridge我们有一个API接口并发接收请求,收集事件,写入事件总线,配置了多个事件目标来消费处理,其中有一个事件目标是将事件数据写入clickhouse,但clickhouse设计上要求批量写入,不能高并发写入,这个场景有比较好的实践建议吗?需要在事件总线和事件目标之间再架个kafka或rocketmq吗?
可以找桥个 kafka 做,后续eb 也会规划直接对接ck
这种目前已有的成熟方案:通常都是kafka+函数计算,此回答整理自钉群“EventBridge用户交流群”
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
阿里云拥有国内全面的云原生产品技术以及大规模的云原生应用实践,通过全面容器化、核心技术互联网化、应用 Serverless 化三大范式,助力制造业企业高效上云,实现系统稳定、应用敏捷智能。拥抱云原生,让创新无处不在。