问题一:Seata中config.txt里面的配置项 能不能在nacos放在同一个 Data ID里面?
"config.txt里面的配置项 能不能在nacos放在同一个 Data ID里面?
2023-12-12 10:21:11.807 | INFO 96548 | [traceId:] | main [TID:N/A] i.s.discovery.registry.RegistryFactory | use registry center type: nacos
2023-12-12 10:21:16.275 | INFO 96548 | [traceId:] | main [TID:N/A] c.a.n.client.config.impl.ClientWorker | [fixed-public-127.0.0.1_8848] [subscribe] service.vgroupMapping.fw-tx-group+SEATA_GROUP+public
2023-12-12 10:21:16.275 | INFO 96548 | [traceId:] | main [TID:N/A] c.a.nacos.client.config.impl.CacheData | [fixed-public-127.0.0.1_8848] [add-listener] ok, tenant=public, dataId=service.vgroupMapping.fw-tx-group, group=SEATA_GROUP, cnt=1
2023-12-12 10:21:18.793 | ERROR 96548 | [traceId:] | main [TID:N/A] i.s.c.r.netty.NettyClientChannelManager | Failed to get available servers: service.vgroupMapping.fw-tx-group configuration item is required
io.seata.config.exception.ConfigNotFoundException: service.vgroupMapping.fw-tx-group configuration item is required
at io.seata.discovery.registry.nacos.NacosRegistryServiceImpl.lookup(NacosRegistryServiceImpl.java:151)
at io.seata.core.rpc.netty.NettyClientChannelManager.getAvailServerList(NettyClientChannelManager.java:277)
at io.seata.core.rpc.netty.NettyClientChannelManager.reconnect(NettyClientChannelManager.java:213)
at io.seata.core.rpc.netty.TmNettyRemotingClient.initConnection(TmNettyRemotingClient.java:288)
at io.seata.core.rpc.netty.TmNettyRemotingClient.init(TmNettyRemotingClient.java:196)
at io.seata.tm.TMClient.init(TMClient.java:47)
at io.seata.spring.annotation.GlobalTransactionScanner.initClient(GlobalTransactionScanner.java:224)
at io.seata.spring.annotation.GlobalTransactionScanner.afterPropertiesSet(GlobalTransactionScanner.java:470)"
参考回答:
"看下这个:https://seata.io/zh-cn/docs/user/configuration/nacos.html
关于本问题的更多回答可点击原文查看:
问题二:Nacos生产环境需要部署某个服务,建议是用下线实例或者变更权重的方式,还是用注销实例的接口?
Nacos生产环境需要部署某个服务,希望在重启服务前先摘除流量,建议是用下线实例或者变更权重的方式,还是用注销实例的接口?
参考回答:
我这边用的 dubbo,是将服务优雅下线,流量不会再进来,再发版
关于本问题的更多回答可点击原文查看:
问题三:NGINX + 三节点的Nacos集群,微服务都通过Vip访问,请问这种情况如何解决?
NGINX + 三节点的Nacos集群,微服务都通过Vip访问, 目前发现修改某个实例权重后其他微服务收到推送事件的速度下降了,但是如果用单点的Nacos是收到事件推送的速度会快很多。 请问这种情况如何解决? 是因为用了SLB做负载均衡后,长轮询的效率变低了吗?三个节点都是通过Nginx来代理请求,默认的负载均衡设置
参考回答:
论上会慢些,单节点是 1 对 1 修改生效,集群 vip 是路由到某个节点修改,然后通过同步机制同步其他节点
关于本问题的更多回答可点击原文查看:
问题四:Nacos客户端在应用中配置的明文密码做加密的话各位有什么思路吗?
Nacos客户端在应用中配置的明文密码做加密的话各位有什么思路吗?
参考回答:
使用jasypt或者参考这个https://github.com/fuxiuzhan/fuled-component/tree/master/fuled-env-encryptor-starter/src/main
关于本问题的更多回答可点击原文查看:
问题五:nacos其中his_config_info表的内容就是配置历史版本会一直保存吗?
nacos使用mysql作为后端数据库,其中his_config_info表的内容就是配置历史版本会一直保存吗?
参考回答:
在Nacos中,确实会将配置的历史版本信息保存在his_config_info表中。这些历史版本信息主要用于提供配置的版本回滚功能,允许用户查看和恢复之前的配置版本。然而,这些历史记录并不会一直保存下去。目前,Nacos默认只保留30天的历史记录。超过这个时间的旧版本配置,会被自动删除。
如果你希望保留更长的历史配置版本,你可以通过修改Nacos的源代码来调整历史记录的保留时间。具体来说,你可以在Nacos的日志文件操作的历史记录部分,自行配置历史记录保留的时间。
请注意,虽然历史版本的配置可以被回滚,但在生产环境中使用之前,仍然需要仔细测试以确保新的配置版本不会对应用的正常运行产生影响。
关于本问题的更多回答可点击原文查看: