开发者社区> 问答> 正文

请问pyflink如何跟kerberos认证的kafka对接呢?

我把kerberos相关的配置放在某一个flink-conf.yaml里,然后启动了一个local模式*来自志愿者整理的flink

展开
收起
全云坠旺的仔 2021-12-03 18:17:31 703 0
1 条回答
写回答
取消 提交回答
  • 我的码呢!?

    你好,local模式的pyflink shell是不会主动读取任何flink-conf.yaml的。需要配置环境变量FLINK_HOME,将相关配置写入$FLINK_HOME/conf/flink-conf.yaml里,并且只有在提交job时候(flink run、remote模式或者yarn模式)才会去读取flink-conf.yaml里的内容。

    如果执意要在local模式下尝试,可以通过以下代码: from pyflink.java_gateway import get_gateway System = get_gateway().jvm.System 拿到java中的System对象,然后按照java中的方式进行配置。*来自志愿者整理的flink

    2021-12-06 10:11:46
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Java Spring Boot开发实战系列课程【第16讲】:Spring Boot 2.0 实战Apache Kafka百万级高并发消息中间件与原理解析 立即下载
MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载
消息队列kafka介绍 立即下载