自动布署怎么实现的 ?我是用scp将agent发送到目标机器,然后通过kafka下发配置 每个采集器起来的时候之前读取配置-问答-阿里云开发者社区-阿里云

开发者社区> 问答> 正文
阿里云
为了无法计算的价值
打开APP
阿里云APP内打开

自动布署怎么实现的 ?我是用scp将agent发送到目标机器,然后通过kafka下发配置 每个采集器起来的时候之前读取配置

2019-01-04 10:17:15 2788 1

自动布署怎么实现的 ?我是用scp将agent发送到目标机器,然后通过kafka下发配置 每个采集器起来的时候之前读取配置

取消 提交回答
全部回答(1)
  • k8s小能手
    2019-07-17 23:24:36

    "在阿里内部,会有一个cmd agent,每个镜像都会带,开机的时候会去请求服务端,拿到服务端对应的配置,其中一个配置就是安装Logtail,会去执行命令自动安装Logtail。Logtail启动后会去日志服务的服务端自动拉取配置,拿到配置开始工作。
    如果自己搞,确实比较麻烦,主要看实现复杂度以及收益的性价比,你的方式自己实现起来确实麻烦,可靠性也有一定问题,但也能达到效果。"

    0 0
相关问答

0

回答

各位大佬,flink sql 通过Upsert-Kafka下发更新数据有value 为null的情况

2022-08-30 11:46:53 48浏览量 回答数 0

1

回答

可以agent的方式启动,然后自动trace,日志打印到log4j吗?

2022-08-09 14:53:53 293浏览量 回答数 1

0

回答

大佬们,我flink 采用 upsert-kafka作为连接器建表(t1),数据中具有相同更新时间的

2022-08-03 13:45:47 97浏览量 回答数 0

0

回答

请问下通过flink sql读取hologres 的两张表的 binlog,然后如何进行join?

2022-07-29 13:51:30 138浏览量 回答数 0

0

回答

我想问一下,我flink作业是以upsert-kafka的方式写入数据的,但是我在mysql里面去更

2022-07-22 15:49:03 265浏览量 回答数 0

1

回答

现有两个kafka的topic要通过Flink将数据原封不动的写入MYSQL 王方案一: 写两个F

2022-07-13 11:29:53 136浏览量 回答数 1

0

回答

请教个问题,我现在使用flinkcdc监控mysqlbinlog日志 想要实现根据表明发送到不同的

2022-07-12 18:04:31 175浏览量 回答数 0

1

回答

Flink sql 维表聚合问题请教

2021-12-02 16:44:26 259浏览量 回答数 1

1

回答

flink sql中kafka source订阅canal-json消息

2020-09-23 10:56:19 766浏览量 回答数 1

2

回答

读取kafka 的canal-json数据不能写入到mysql?#Flink

2020-08-21 19:02:43 1549浏览量 回答数 2
+关注
k8s小能手
整合最优质的专家资源和技术资料,问答解疑
26
文章
620
问答
问答排行榜
最热
最新
相关电子书
更多
低代码开发师(初级)实战教程
立即下载
阿里巴巴DevOps 最佳实践手册
立即下载
冬季实战营第三期:MySQL数据库进阶实战
立即下载