Dapr:用于构建分布式应用程序的便携式事件驱动运行时
Dapr 是一个可移植、事件驱动的运行时,简化了分布式应用程序的开发。它支持多语言、多框架,适用于云和边缘计算环境,提供服务调用、状态管理、消息发布/订阅等构建模块。通过 sidecar 模式,Dapr 帮助开发者轻松应对微服务架构的复杂性,实现弹性、可扩展的应用部署。
《云原生场景下Prometheus指标采集异常的深度排查与架构修复》
本文聚焦云原生监控系统中Prometheus采集K8s容器指标的“间歇性无数据”问题,还原其技术环境(K8s 1.28.3、Prometheus 2.45.0等)与故障现象(指标缺失5-15分钟,高峰期频发)。排查发现,根源在于kubelet的cadvisor指标生成线程不足、缓存策略不当,叠加Calico iptables转发延迟。通过优化kubelet参数(增线程、缩缓存)、调整Prometheus采集策略(延间隔、分片采集)、切换Calico为IPVS模式,问题得以解决。同时给出长期监控预警方案,为云原生监控运维提供实践思路,强调全链路协同优化的重要性。
在Kubernetes环境中引用变量的方法
总结一下,在Kubernetes环境中引用变量主要有两种方式:一种是通过环境变量,另一种是通过ConfigMaps。前者适合于简单、直接地设置和获取值;后者则更适合于存储和管理复杂、多样化的配置信息。
《云原生通信偶发503深析:从Istio配置同步到内核连接队列的全链路协同陷阱》
本文围绕电商支付链路中云原生服务通信的偶发503错误展开复盘,该故障在流量高峰及服务伸缩时凸显,技术环境基于Kubernetes 1.26、Istio 1.15等典型企业级云原生架构。通过分层溯源发现,问题根源为三层协同失效:Istio控制平面配置推送优先级不合理导致端点列表延迟,数据平面Sidecar资源不足引发健康检查阻塞,内核TCP连接队列参数过小造成连接丢弃。针对性优化后—调整推送策略、扩容Sidecar资源、调优内核参数,经测试故障未再复现,服务可用性从99.8%提升至99.99%。
《Pod调度失效到Kubernetes调度器的底层逻辑重构》
本文以Kubernetes 1.26混合云原生集群中核心交易Pod早高峰扩容时频发的调度失效问题为切入点,详细阐述了故障排查与解决全过程。通过分析cadvisor原生指标、启用调度器详细追踪模式并对比etcd快照,最终定位到自定义调度器因移除事件去重机制、延长缓存校验周期,在多事件叠加场景下出现缓存与etcd标签不一致的核心问题。据此提出短期修复逻辑漏洞、中期优化事件调度、长期构建韧性架构的三级方案,并提炼出性能优化需兼顾逻辑严谨、构建全链路监控等实践。
阿里云Kubenetes服务获取出站IP地址的快速说明
本文介绍了如何在阿里云Kubernetes集群中获取Next.js服务的出口IP,以便在AWS EC2安全组中配置访问规则。可通过进入Pod执行API调用获取源IP,或在Node.js中使用HTTP请求获取。此外,也可通过阿里云NAT网关的EIP直接获取出口IP。
关于阿里云 Kubernetes 容器服务(ACK)添加镜像仓库的快速说明
本文介绍了在中国大陆地区因网络限制无法正常拉取 Docker 镜像的解决方案。作者所在的阿里云 Kubernetes 集群使用的是较旧版本的 containerd(1.2x),且无法直接通过 SSH 修改节点配置,因此采用了一种无需更改 Kubernetes 配置文件的方法。通过为 `docker.io` 添加 containerd 的镜像源,并使用脚本自动修改 containerd 配置文件中的路径错误(将错误的 `cert.d` 改为 `certs.d`),最终实现了通过多个镜像站点拉取镜像。作者还提供了一个可重复运行的脚本,用于动态配置镜像源。虽然该方案能缓解镜像拉取问题,
稳定支撑大规模模型调用,携程旅游的 AI 网关实践
为了进一步提升服务水平和服务质量,携程很早就开始在人工智能大模型领域进行探索。而随着工作的深入,大模型服务的应用领域不断扩大,公司内部需要访问大模型服务的应用也越来越多,不可避免的就遇到了几个问题,我们自然就会想到使用网关来对这些服务接入进行统一管理,并增加各种切面上的流量治理功能。