官方博客-第12页-阿里云开发者社区

  • 2024-12-13
    1947

    动态链接的魔法:Linux下动态链接库机制探讨

    本文将深入探讨Linux系统中的动态链接库机制,这其中包括但不限于全局符号介入、延迟绑定以及地址无关代码等内容。

    1,947
  • 2025-02-28
    1057

    大模型推理主战场:通信协议的标配

    DeepSeek加速了模型平权,大模型推理需求激增,性能提升主战场从训练转向推理。SSE(Server-Sent Events)和WebSocket成为大模型应用的标配网络通信协议。SSE适合服务器单向推送实时数据,如一问一答场景;WebSocket支持双向实时通信,适用于在线游戏、多人协作等高实时性场景。两者相比传统HTTPS协议,能更好地支持流式输出、长时任务处理和多轮交互,满足大模型应用的需求。随着用户体量扩大,网关层面临软件变更、带宽成本及恶意攻击等挑战,需通过无损上下线、客户端重连机制、压缩算法及安全防护措施应对。

    1,057
  • 2025-03-21
    1100

    AI 推理场景的痛点和解决方案

    一个典型的推理场景面临的问题可以概括为限流、负载均衡、异步化、数据管理、索引增强 5 个场景。通过云数据库 Tair 丰富的数据结构可以支撑这些场景,解决相关问题,本文我们会针对每个场景逐一说明。

    1,100
  • 2024-11-29
    2019

    作为开发者,我如何提高任务型大模型应用的响应性能

    本文基于实际场景,分享了作为开发者提高大模型响应性能的四个实用方法。

    2,019
  • 2025-08-12
    441

    「迁移急救包」全云平台无缝迁移云效实操手册

    阿里云云效是国内领先的一站式DevOps平台,提供代码全生命周期管理、智能化交付流水线及精细化研发管控,支持多种开发场景。本文详细介绍了从其他平台(如Coding)向云效迁移的完整方案,包括代码仓库、流水线、制品仓库及项目数据的迁移步骤,帮助用户实现高效、安全的平滑迁移,提升研发效率与协作能力。

  • 2024-05-15
    102426

    大语言模型推理提速,TensorRT-LLM 高性能推理实践

    大型语言模型(Large language models,LLM)是基于大量数据进行预训练的超大型深度学习模型,本文主要讲述TensorRT-LLM利用量化、In-Flight Batching、Attention、Graph Rewriting提升 LLM 模型推理效率。

    102,426
  • 2024-05-15
    93854

    使用KMS为MSE-Nacos敏感配置加密的最佳实践

    本文主要介绍通过KMS密钥管理服务产生的密钥对敏感的AK等数据进行加密之后可以有效解决泄漏带来的安全风险问题,其次通过KMS凭据托管的能力直接将MSE的主AK进行有效管理,保障全链路无AK的业务体验,真正做到安全、可控。

    93,854
  • 2024-05-15
    2567

    Multi-Agent实践第5期:RAG智能体的应用:让AgentScope介绍一下自己吧

    本期文章,我们将向大家展示如何使用AgentScope中构建和使用具有RAG功能的智能体,创造AgentScope助手群,为大家解答和AgentScope相关的问题。

    2,567
  • 2024-07-30
    3570

    5 大场景上手通义灵码企业知识库问答

    通义灵码在企业版里还引入了一个超酷的新技能:RAG(Retrieval-Augmented Generation)检索增强生成的能力,本文就跟大家分享下企业知识库能帮开发者做些什么。

  • 1
    ...
    11
    12
    13
    ...
    47
    到第