发现个问题,我这边环境跑了几个礼拜,其中有个节点磁盘利用率过80%后,k8s把上面的pod驱逐了,之后我清理掉一些日志后,删除evicted的pod让operator重新调度之后,所有节点都起来并显示running了,但是show node还是只有一个节点,然后登录到有问题的那个节点,发现这个dn没组成集群,,这个dn是不是还不能开始工作,如果是这样的话,dn的readiness probe是不是逻辑不太严谨,还有个问题就是这种情况有什么办法能恢复吗
dn节点里,rpm -qa | grep galaxy看一下(此答案整理自阿里云 PolarDB-X 开源交流群)
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
PolarDB 分布式版 (PolarDB for Xscale,简称“PolarDB-X”) 采用 Shared-nothing 与存储计算分离架构,支持水平扩展、分布式事务、混合负载等能力,100%兼容MySQL。 2021年开源,开源历程及更多信息访问:OpenPolarDB.com/about