官方博客-第29页-阿里云开发者社区

  • 125865

    PolarDB闪电助攻,《香肠派对》百亿好友关系实现毫秒级查询

    PolarDB分布式版助力《香肠派对》实现百亿好友关系20万QPS的毫秒级查询。

  • 380

    从故障演练到运维工具产品力评测的探索 | 龙蜥技术

    随着AI和云原生技术的发展,业界运维工具百花齐放,该如何让优秀的工具脱颖而出?

  • 2024-05-15
    1104

    LISA微调技术解析:比LoRA更低的显存更快的速度

    LISA是Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning的简写,由UIUC联合LMFlow团队于近期提出的一项LLM微调技术,可实现把全参训练的显存使用降低到之前的三分之一左右,而使用的技术方法却是非常简单。

    1,104
  • 2024-09-04
    528

    用Prompt技巧激发无限创意

    本文深入探讨当前最前沿的prompt engineering方案,结合OpenAI、Anthropic和Google等大模型公司的资料,以及开源社区中宝贵的prompt技巧分享,全面解析这一领域的实践策略。

    528
  • 2024-09-05
    954

    RAG效果优化:高质量文档解析详解

    本文关于如何将非结构化数据(如PDF和Word文档)转换为结构化数据,以便于RAG(Retrieval-Augmented Generation)系统使用。

  • 2024-12-05
    799

    我的程序突然罢工了|深入探究HSF调用异常,从死锁到活锁的全面分析与解决

    本文详细记录了作者在处理HSF调用异常问题的过程中,从初步怀疑死锁到最终发现并解决活锁问题的全过程。

    799
  • 2025-01-23
    380

    过年啦,做一个春节贺卡生成器

    本文介绍了如何获取和利用现有的大模型资源,结合魔笔低代码,低成本、高效率地打造一个 AI 春节贺卡生成器。

    380
  • 2025-01-23
    620

    MySQL索引学习笔记

    本文深入探讨了MySQL数据库中慢查询分析的关键概念和技术手段。

    620
  • 2025-02-20
    687

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    687
  • 1
    ...
    28
    29
    30
    ...
    63
    到第