官方博客-第22页-阿里云开发者社区

  • 2024-08-12
    561

    5 大场景上手通义灵码企业知识库 RAG

    大家好,我是通义灵码,你的智能编程助手!今天就跟大家分享下企业知识库能帮开发者做些什么。

  • 2024-09-11
    474

    二级缓存架构极致提升系统性能

    本文详细阐述了如何通过二级缓存架构设计提升高并发下的系统性能。

    474
  • 2024-11-06
    629

    比 Copilot 快两倍以上,在我的开源项目 AI Godot 桌宠中用通义灵码解决问题

    在我的开源项目 AI Godot 桌宠中用通义灵码解决问题。

  • 2024-11-14
    599

    通义灵码 SWE-GPT:从 静态代码建模 迈向 软件开发过程长链推理

    在本文中,作者介绍了 Lingma SWE-GPT,一款专为解决复杂软件改进任务设计的开源大型语言模型系列。

    599
  • 537

    手把手教学攻略:在Anolis OS上部署OpenVINO深度学习模型

    Anolis OS 作为国内首个正式提供 OpenVINO 开发包和镜像的服务器端操作系统,推动国内 AI 推理生态和能力的升级。

  • 2025-01-20
    648

    ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明

    针对本地存储和 PVC 这两种容器存储使用方式,我们对 ACK 的容器存储监控功能进行了全新升级。此次更新完善了对集群中不同存储类型的监控能力,不仅对之前已有的监控大盘进行了优化,还针对不同的云存储类型,上线了全新的监控大盘,确保用户能够更好地理解和管理容器业务应用的存储资源。

    648
  • 2025-02-19
    549

    一键构建智能导购 AI 助手,轻松重塑购物体验

    在数字化时代,线上购物已成为消费者生活中不可或缺的消费方式,而消费者的购物习惯和需求逐渐呈现多样化的趋势,为了帮助商家全天候、自动化地满足顾客的购物需求,本方案将详细介绍如何基于商品内容构建一个智能商品导购助手。

  • 2025-02-20
    799

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    799
  • 2025-04-28
    810

    StrmVol 存储卷:解锁 K8s 对象存储海量小文件访问性能新高度

    本文介绍了阿里云容器服务(ACK)支持的StrmVol存储卷方案,旨在解决Kubernetes环境中海量小文件访问性能瓶颈问题。通过虚拟块设备与内核态文件系统(如EROFS)结合,StrmVol显著降低了小文件访问延迟,适用于AI训练集加载、时序日志分析等场景。其核心优化包括内存预取加速、减少I/O等待、内核态直接读取避免用户态切换开销,以及轻量索引快速初始化。示例中展示了基于Argo Workflows的工作流任务,模拟分布式图像数据集加载,测试结果显示平均处理时间为21秒。StrmVol适合只读场景且OSS端数据无需频繁更新的情况,详细使用方法可参考官方文档。

  • 1
    ...
    21
    22
    23
    ...
    28
    到第
    22/28