官方博客-第25页-阿里云开发者社区

  • 2024-08-06
    8559

    【AI 冰封挑战】搭档函数计算,“冰”封你的夏日记忆

    夏日炎炎,别让高温打败你的创意,立即体验 ComfyUI 自制冰冻滤镜!无需繁琐的后期技巧,三步开启一段清凉无比的视觉探险。参与实验并上传作品即可获得运动无线蓝牙耳机,限量 800 个,先到先得!

  • 2024-08-16
    734

    用 Higress AI 网关降低 AI 调用成本 - 阿里云天池云原生编程挑战赛参赛攻略

    《Higress AI 网关挑战赛》正在火热进行中,Higress 社区邀请了目前位于排行榜 top5 的选手杨贝宁同学分享他的心得。本文是他整理的参赛攻略。

  • 2024-11-15
    478

    架构师的真内核

    本文旨在帮助大家深入理解技术、架构和团队领导力的本质,从而获得持续成长的方法。欢迎在文末留言,你觉得架构师需要具备的核心能力是什么?

    478
  • 2024-12-27
    931

    编译时插桩,Go应用监控的最佳选择

    本文讲解了阿里云编译器团队和可观测团队为了实现Go应用监控选择编译时插桩的原因,同时还介绍了其他的监控方案以及它们的优缺点。

    931
  • 2025-01-14
    502

    政采云业务网关实践:使用 Higress 统一替代 APISIX/Kong/Istio Ingress

    政采云基础架构团队技术专家朱海峰介绍了业务网关项目的背景和解决方案。

    502
  • 2025-02-20
    700

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    700
  • 2025-04-07
    398

    IngressNightmare:Ingress Nginx 再曝5个安全漏洞,可接管你的 K8s 集群

    是否还记得 2022 年 K8s Ingress Nginx 披露了的 3 个高危安全漏洞(CVE-2021-25745, CVE-2021-25746, CVE-2021-25748),并在那一年宣布停止接收新功能 PR,专注修复并提升稳定性。

  • 676

    如何有效降低产品级内存数据库快照尾延迟

    本文讲解内存键值对数据库在使用 fork 拍摄快照时引起的请求尾延迟激增问题如何解决的实践方案。

  • 4967

    Apache Paimon 在同程旅行的探索实践

    本文主要介绍 Apache Paimon 在同程旅行的生产落地实践经验。

  • 1
    ...
    24
    25
    26
    ...
    84
    到第