官方博客-第17页-阿里云开发者社区

  • 2024-12-06
    1031

    【实战干货】AI大模型工程应用于车联网场景的实战总结

    本文介绍了图像生成技术在AIGC领域的发展历程、关键技术和当前趋势,以及这些技术如何应用于新能源汽车行业的车联网服务中。

    1,031
  • 2025-01-06
    323

    OpenAI 宕机思考丨Kubernetes 复杂度带来的服务发现系统的风险和应对措施

    Kubernetes 体系基于 DNS 的服务发现为开发者提供了很大的便利,但其高度复杂的架构往往带来更高的稳定性风险。以 Nacos 为代表的独立服务发现系统架构简单,在 Kubernetes 中选择独立服务发现系统可以帮助增强业务可靠性、可伸缩性、性能及可维护性,对于规模大、增长快、稳定性要求高的业务来说是一个较理想的服务发现方案。希望大家都能找到适合自己业务的服务发现系统。

    323
  • 2025-01-06
    1830

    5 分钟复刻你的声音,一键实现 GPT-Sovits 模型部署

    想象一下,只需简单几步操作,就能生成逼真的语音效果,无论是为客户服务还是为游戏角色配音,都能轻松实现。GPT-Sovits 模型,其高效的语音生成能力为实现自然、流畅的语音交互提供了强有力的技术支持。本文将详细介绍如何利用函数计算平台部署 GPT-Sovits 模型,以构建一个高效、可扩展的 AI 语音交互系统。通过这一部署方案,开发者和企业能够快速集成语音合成功能,实现从文本到语音的无缝转换,进而推动智能语音应用的创新和发展。

  • 2025-02-20
    708

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    708
  • 2025-02-25
    1115

    解锁 DeepSeek 安全接入、稳定运行新路径

    聚焦于企业部署 DeepSeek 的应用需求,本文介绍了模型权重下载及多种部署方案,还阐述了大模型应用落地的常见需求,帮助用户逐步提升模型应用效果。

  • 2025-04-10
    496

    用自定义插件生成一篇图文并茂的文章

    本文是《5步教你创建大模型自定义插件》的下篇,主要就已有的自定义插件中的生图能力为例,演示如何生成一个图文并茂的文章。

    496
  • 371

    ACK AI Profiling:从黑箱到透明的问题剖析

    本文从一个通用的客户问题出发,描述了一个问题如何从前置排查到使用AI Profiling进行详细的排查,最后到问题定位与解决、业务执行过程的分析,从而展现一个从黑箱到透明的精细化的剖析过程。

  • 2023-12-01
    1529

    Koordinator 助力云原生应用性能提升,小红书混部技术实践

    本文基于 2023 云栖大会上关于 Koordinator 分享的实录,介绍小红书通过规模化落地混部技术来大幅提升集群资源效能,降低业务资源成本。

    1,529
  • 2024-05-15
    222074

    Kube Queue:Kubernetes 任务排队的利器

    Kube Queue:Kubernetes 任务排队的利器

    222,074
  • 1
    ...
    16
    17
    18
    ...
    41
    到第