官方博客-第20页-阿里云开发者社区

  • 2024-05-15
    1018

    基于PAI-DSW快速启动Stable Diffusion WebUI

    基于PAI-DSW快速启动Stable Diffusion WebUI,创作你的专属冬日主题AI画作!

    1,018
  • 2024-05-15
    2981

    阿里云大降价后,再谈“降本增效”

    2024年2月29日,阿里云宣布史上最大力度降价,引发行业对用云成本的热议。

  • 2024-05-15
    109463

    吴泳铭:拥抱人工智能驱动的产业智能革命

    吴泳铭:拥抱人工智能驱动的产业智能革命

    109,463
  • 538

    手把手教学攻略:在Anolis OS上部署OpenVINO深度学习模型

    Anolis OS 作为国内首个正式提供 OpenVINO 开发包和镜像的服务器端操作系统,推动国内 AI 推理生态和能力的升级。

  • 2025-02-19
    552

    一键构建智能导购 AI 助手,轻松重塑购物体验

    在数字化时代,线上购物已成为消费者生活中不可或缺的消费方式,而消费者的购物习惯和需求逐渐呈现多样化的趋势,为了帮助商家全天候、自动化地满足顾客的购物需求,本方案将详细介绍如何基于商品内容构建一个智能商品导购助手。

  • 2025-06-16
    677

    告别‘人海战术’!基于EvalScope 的文生图模型智能评测新方案

    生成式模型在文本生成图片等领域的快速发展,为社区带来了日新月异的诸多文生图模型。

  • 2024-10-18
    1046

    海量大模型如何一键部署上云,函数计算 x ModelScope 社区给出答案

    得益于阿里云函数计算的产品能力,魔搭 SwingDeploy 后的模型推理 API 服务默认具备极致弹性伸缩(缩零能力)、GPU 虚拟化(最小 1GB 显存粒度)、异步调用能力、按用付费、闲置计费等能力,这些能力帮助算法工程师大大加快了魔搭开源模型投入生产的生命周期。

  • 2025-02-20
    800

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    800
  • 2025-03-11
    1656

    QwQ-32B一键部署,真正的0代码,0脚本,0门槛

    阿里云发布的QwQ-32B模型通过强化学习显著提升了推理能力,核心指标达到DeepSeek-R1满血版水平。用户可通过阿里云系统运维管理(OOS)一键部署OpenWebUI+Ollama方案,轻松将QwQ-32B模型部署到ECS,或连接阿里云百炼的在线模型。整个过程无需编写代码,全部在控制台完成,适合新手操作。

    1,656
  • 1
    ...
    19
    20
    21
    ...
    24
    到第
    20/24