开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink消费 有kerberos认证的kafka集群,应该怎么消费者的配置应该怎么配?

Flink消费 有kerberos认证的kafka集群,应该怎么消费者的配置应该怎么配?

展开
收起
wenti 2023-02-27 19:08:54 314 0
1 条回答
写回答
取消 提交回答
  • // 本地测试需要配置下面内容 properties.put("security.protocol", "SASL_PLAINTEXT"); properties.put("sasl.kerberos.service.name", "kafka"); properties.put("kerberos.domain.name", "你的"); // System.setProperty("java.security.auth.login.config","E:\javaWorkSpace\\big-data-report\flink-code\src\main\resources\jaas.conf"); // System.setProperty("java.security.krb5.conf","E:\javaWorkSpace\\big-data-report\flink-code\src\main\resources\krb5.conf"); resource 里面还要user。keytab——该回答整理自钉群“【③群】Apache Flink China社区”

    2023-02-27 21:48:09
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载