官方博客-第23页-阿里云开发者社区

  • 2024-05-15
    1913

    新一代端侧模型,面壁 MiniCPM 2.0开源,魔搭社区最佳实践

    MiniCPM-V 2.0 不仅带来优秀端侧多模态通用能力,更带来惊艳的 OCR 表现。通过自研的高清图像解码技术,可以突破传统困境,让更为精准地识别充满纷繁细节的街景、长图在端侧成为可能。

    1,913
  • 380

    从故障演练到运维工具产品力评测的探索 | 龙蜥技术

    随着AI和云原生技术的发展,业界运维工具百花齐放,该如何让优秀的工具脱颖而出?

  • 2024-05-15
    1104

    LISA微调技术解析:比LoRA更低的显存更快的速度

    LISA是Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning的简写,由UIUC联合LMFlow团队于近期提出的一项LLM微调技术,可实现把全参训练的显存使用降低到之前的三分之一左右,而使用的技术方法却是非常简单。

    1,104
  • 2024-09-05
    954

    RAG效果优化:高质量文档解析详解

    本文关于如何将非结构化数据(如PDF和Word文档)转换为结构化数据,以便于RAG(Retrieval-Augmented Generation)系统使用。

  • 2024-12-05
    799

    我的程序突然罢工了|深入探究HSF调用异常,从死锁到活锁的全面分析与解决

    本文详细记录了作者在处理HSF调用异常问题的过程中,从初步怀疑死锁到最终发现并解决活锁问题的全过程。

    799
  • 2025-01-23
    380

    过年啦,做一个春节贺卡生成器

    本文介绍了如何获取和利用现有的大模型资源,结合魔笔低代码,低成本、高效率地打造一个 AI 春节贺卡生成器。

    380
  • 2025-02-07
    469

    从铜线到云端:网络技术的跨越与未来趋势

    本文围绕物理网络和云网络基础知识科普进行展开,最后浅谈在AI大模型浪潮下云网络的演进方向。

    469
  • 2025-02-20
    687

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    687
  • 1
    ...
    22
    23
    24
    ...
    43
    到第