官方博客-第16页-阿里云开发者社区

  • 2024-05-15
    165222

    一键开启 GPU 闲置模式,基于函数计算低成本部署 Google Gemma 模型服务

    本文介绍如何使用函数计算 GPU 实例闲置模式低成本、快速的部署 Google Gemma 模型服务。

    165,222
  • 2024-10-22
    1148

    最佳实践:通义灵码生成单元测试,让单测更简单

    本文首先讲述了什么是单元测试、单元测试的价值、一个好的单元测试所具备的原则,进而引入如何去编写一个好的单元测试,通义灵码是如何快速生成单元测试的。

    1,148
  • 2024-11-21
    975

    “无”中生有:基于知识增强的RAG优化实践

    本文作者基于自身在RAG技术领域长达半年的实践经验,分享了从初识RAG的潜力到面对实际应用挑战的心路历程,以及如何通过一系列优化措施逐步解决这些挑战的过程。

  • 2024-11-29
    1109

    性能提升利器|PolarDB- X 超详细列存查询技术解读

    本文将深入探讨 PolarDB-X 列存查询引擎的分层缓存解决方案,以及其在优化 ORC 列存查询性能中的关键作用。

    1,109
  • 2025-04-24
    1130

    为什么一定要做Agent智能体?

    作者通过深入分析、理解、归纳,最后解答了“为什么一定要做Agent”这个问题。

  • 2023-09-14
    25841

    沉浸式学习PostgreSQL|PolarDB 16: 植入通义千问大模型+文本向量化模型, 让数据库具备AI能力

    本文将带领大家来体验一下如何将“千问大模型+文本向量化模型”植入到PG|PolarDB中, 让数据库具备AI能力.

    25,841
  • 2024-05-15
    64106

    通义千问开源模型在PAI灵骏的最佳实践

    本文将展示如何基于阿里云PAI灵骏智算服务,在通义千问开源模型之上进行高效分布式继续预训练、指令微调、模型离线推理验证以及在线服务部署。

    64,106
  • 2024-05-15
    49925

    秒级弹性,探索弹性调度与虚拟节点如何迅速响应瞬时算力需求

    秒级弹性!探索弹性调度与虚拟节点如何迅速响应瞬时算力需求?

    49,925
  • 2024-05-15
    102422

    大语言模型推理提速,TensorRT-LLM 高性能推理实践

    大型语言模型(Large language models,LLM)是基于大量数据进行预训练的超大型深度学习模型,本文主要讲述TensorRT-LLM利用量化、In-Flight Batching、Attention、Graph Rewriting提升 LLM 模型推理效率。

    102,422
  • 1
    ...
    15
    16
    17
    ...
    61
    到第