官方博客-第32页-阿里云开发者社区

  • 2024-05-15
    1125

    vLLM部署Yuan2.0:高吞吐、更便捷

    vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

    1,125
  • 2024-07-09
    1462

    阿里云百炼应用实践系列-基于LlamaIndex的文档问答助手

    本文以阿里云百炼官方文档问答助手为例,介绍如何基于阿里云百炼平台打造基于LlamaIndex的RAG文档问答产品。我们基于阿里云百炼平台的底座能力,以官方帮助文档为指定知识库,搭建了问答服务,支持钉钉、Web访问。介绍了相关技术方案和主要代码,供开发者参考。

  • 2024-08-06
    8547

    【AI 冰封挑战】搭档函数计算,“冰”封你的夏日记忆

    夏日炎炎,别让高温打败你的创意,立即体验 ComfyUI 自制冰冻滤镜!无需繁琐的后期技巧,三步开启一段清凉无比的视觉探险。参与实验并上传作品即可获得运动无线蓝牙耳机,限量 800 个,先到先得!

  • 2024-08-20
    19099

    AI 网关零代码解决 AI 幻觉问题

    本文主要介绍了 AI Agent 的背景,概念,探讨了 AI Agent 网关插件的使用方法,效果以及实现原理。

    19,099
  • 2024-09-02
    1632

    基于阿里云函数计算(FC)x 云原生 API 网关构建生产级别 LLM Chat 应用方案最佳实践

    本文带大家了解一下如何使用阿里云Serverless计算产品函数计算构建生产级别的LLM Chat应用。该最佳实践会指导大家基于开源WebChat组件LobeChat和阿里云函数计算(FC)构建企业生产级别LLM Chat应用。实现同一个WebChat中既可以支持自定义的Agent,也支持基于Ollama部署的开源模型场景。

    1,632
  • 2024-09-11
    427

    二级缓存架构极致提升系统性能

    本文详细阐述了如何通过二级缓存架构设计提升高并发下的系统性能。

    427
  • 2024-09-14
    734

    阿里云函数计算 x NVIDIA 加速企业 AI 应用落地

    阿里云函数计算与 NVIDIA TensorRT/TensorRT-LLM 展开合作,通过结合阿里云的无缝计算体验和 NVIDIA 的高性能推理库,开发者能够以更低的成本、更高的效率完成复杂的 AI 任务,加速技术落地和应用创新。

    734
  • 2024-11-06
    1037

    10 倍性能提升, GraalVM 应用可观测实践

    本文介绍了 GraalVM 静态编译技术在云原生环境下的应用:ARMS 发布了支持 GraalVM 应用的 Java Agent 探针,可为 GraalVM 应用提供开箱即用的可观测能力。同时,文章还提供了使用 ARMS 对 GraalVM 应用进行可观测的详细步骤。

    1,037
  • 2024-11-15
    965

    【提效】docker镜像构建优化-提速10倍

    本文主要记录了自己通过查阅相关资料,一步步排查问题,最后通过优化Docerfile文件将docker镜像构建从十几分钟降低到1分钟左右,效率提高了10倍左右。

    965
  • 1
    ...
    31
    32
    33
    ...
    68
    到第