官方博客-第14页-阿里云开发者社区

  • 2024-05-15
    102450

    大语言模型推理提速,TensorRT-LLM 高性能推理实践

    大型语言模型(Large language models,LLM)是基于大量数据进行预训练的超大型深度学习模型,本文主要讲述TensorRT-LLM利用量化、In-Flight Batching、Attention、Graph Rewriting提升 LLM 模型推理效率。

    102,450
  • 2024-05-15
    1473

    使用阿里云KMS产品针对 Springboot 接口参数加密解密功能

    针对Springboot里面使用开源工具使用加解密,替换成阿里云KMS产品进行加解密;

    1,473
  • 2024-07-29
    20096

    LLM 应用可观测性:从 Trace 视角展开的探索与实践之旅

    基于大语言模型的应用在性能、成本、效果等方面存在一系列实际痛点,本文通过分析 LLM 应用模式以及关注点差异来阐明可观测技术挑战,近期阿里云可观测推出了面向 LLM 应用的可观测解决方案以及最佳实践,一起来了解下吧。

    20,096
  • 2024-12-27
    1552

    极简开发,极速上线:构建端到端大模型应用

    本文将以一个经典的 RAG(检索增强生成)知识问答系统为例,详细介绍从智能体设计到最终应用部署的全流程。

    1,552
  • 2025-05-16
    648

    日志采集 Agent 性能大比拼——LoongCollector 性能深度测评

    为了展现 LoongCollector 的卓越性能,本文通过纵向(LoongCollector 与 iLogtail 产品升级对比)和横向(LoongCollector 与其他开源日志采集 Agent 对比)两方面对比,深度测评不同采集 Agent 在常见的日志采集场景下的性能。

  • 2025-08-12
    465

    「迁移急救包」全云平台无缝迁移云效实操手册

    阿里云云效是国内领先的一站式DevOps平台,提供代码全生命周期管理、智能化交付流水线及精细化研发管控,支持多种开发场景。本文详细介绍了从其他平台(如Coding)向云效迁移的完整方案,包括代码仓库、流水线、制品仓库及项目数据的迁移步骤,帮助用户实现高效、安全的平滑迁移,提升研发效率与协作能力。

  • 2024-05-15
    949

    Modelscope结合α-UMi:基于Modelscope的多模型协作Agent

    基于单个开源小模型的工具调用Agent,由于模型容量和预训练能力获取的限制,无法在推理和规划、工具调用、回复生成等任务上同时获得比肩大模型等性能。

  • 2024-05-15
    110005

    FunASR 语音大模型在 Arm Neoverse 平台上的优化实践

    Arm 架构的服务器通常具备低功耗的特性,能带来更优异的能效比。相比于传统的 x86 架构服务器,Arm 服务器在相同功耗下能够提供更高的性能。这对于大模型推理任务来说尤为重要,因为大模型通常需要大量的计算资源,而能效比高的 Arm 架构服务器可以提供更好的性能和效率。

    110,005
  • 2024-07-25
    14048

    通义灵码:AI 研发趋势与效果提升实践丨SDCon 全球软件技术大会演讲全文整理

    SDCon 全球软件技术大会上,阿里云通义灵码团队分享了关于 AI 辅助编码的最新研究与实践,随着 AIGC 技术的发展,软件研发领域将迎来智能化的新高度,助力 DevOps 流程优化,提升研发效率和研发幸福感。

    14,048
  • 1
    ...
    13
    14
    15
    ...
    65
    到第