我正在尝试使用helm在Kubernetes集群中设置Kafka。
我已经使用Confluent头盔图来完成安装Kafka。
然后我试着看看如何配置弹性Kafka连接接收器。有一点特别让我感到震惊:confluent load elasticsearch-sink命令。如何在容器启动时重复完成它?此外,要配置弹性,我必须设置属性文件。我是否正确使用ConfigMap?我很困惑,因为我必须改变由helm产生的YAML配置,这似乎不可重复......
该confluent命令是为了将其用于localhost开发/入门envionments 只。因此,它不了解Kubernetes(例如,您需要一个Ingress控制器来公开Connect REST API)。
我不认为这是正确的。至少不在Kafka Connect的运营商框架之外(如果存在)。
Connect 通过JSON REST API配置。
因此,也无法在启动时加载配置。它需要手动POST,然后该配置将保留在CONNECT_CONFIG_STORAGE_TOPICKafka中。
在内部,confluent load字面上是一个curl -XPOST -H 'Content-Type: application/json' -d${file} localhost:8083/connectors
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。