官方博客-第32页-阿里云开发者社区

  • 2024-06-25
    811

    ROS CDK魔法书:点亮博客上云新技能(JavaScript篇)

    ROS CDK提供Asset类,将本地文件转化为云资源,通过ROS CDK部署时,自动上传到指定的OSS Bucket。ROS CDK简化了基础设施即代码的流程,通过TypeScript、JavaScript等编程语言代替JSON或YAML模板,提高了效率和安全性。在实际应用中,通过ROS CDK和OSS,可以将本地博客项目打包并部署到阿里云OSS,实现静态网站的云托管。整个过程包括初始化项目、配置凭证、打包博客内容、通过CDK将内容部署到OSS Bucket,以及配置静态网站托管和自定义域名。

  • 2024-07-29
    405

    从供应商深度绑定,到走向真正的云原生,他们是这样做的

    没有 K8s 的运维权限,开发者也能排查和定位问题。

  • 2024-09-04
    525

    用Prompt技巧激发无限创意

    本文深入探讨当前最前沿的prompt engineering方案,结合OpenAI、Anthropic和Google等大模型公司的资料,以及开源社区中宝贵的prompt技巧分享,全面解析这一领域的实践策略。

    525
  • 2024-12-25
    2031

    通义视觉推理大模型QVQ-72B-preview重磅上线

    Qwen团队推出了新成员QVQ-72B-preview,这是一个专注于提升视觉推理能力的实验性研究模型。提升了视觉表示的效率和准确性。它在多模态评测集如MMMU、MathVista和MathVision上表现出色,尤其在数学推理任务中取得了显著进步。尽管如此,该模型仍存在一些局限性,仍在学习和完善中。

    2,031
  • 2024-12-27
    414

    【硬核】C++11并发:内存模型和原子类型

    本文从C++11并发编程中的关键概念——内存模型与原子类型入手,结合详尽的代码示例,抽丝剥茧地介绍了如何实现无锁化并发的性能优化。

    414
  • 2025-02-20
    684

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    684
  • 2025-02-25
    1096

    解锁 DeepSeek 安全接入、稳定运行新路径

    聚焦于企业部署 DeepSeek 的应用需求,本文介绍了模型权重下载及多种部署方案,还阐述了大模型应用落地的常见需求,帮助用户逐步提升模型应用效果。

  • 2025-03-06
    1030

    满血上阵,DeepSeek x 低代码创造专属知识空间

    本文介绍了如何结合阿里云百炼和魔笔平台,快速构建一个智能化的专属知识空间。通过利用DeepSeek R1等先进推理模型,实现高效的知识管理和智能问答系统。 5. **未来扩展**:探讨多租户隔离、终端用户接入等高级功能,以适应更大规模的应用场景。 通过这些步骤,用户可以轻松创建一个功能全面、性能卓越的知识管理系统,极大提升工作效率和创新能力。

    1,030
  • 2025-03-28
    228

    架构革新:揭示卓越性能与高可扩展的共赢秘诀

    为了构建现代化的可观测数据采集器LoongCollector,iLogtail启动架构通用化升级,旨在提供高可靠、高可扩展和高性能的实时数据采集和计算服务。然而,通用化的过程总会伴随性能劣化,本文重点介绍LoongCollector的性能优化之路,并对通用化和高性能之间的平衡给出见解。

    228
  • 1
    ...
    31
    32
    33
    ...
    54
    到第