官方博客-第5页-阿里云开发者社区

  • 2024-09-27
    853

    灵魂拷问-前端的作用--性能优化篇

    作者最近在尝试对负责的平台进行性能优化,本文整理了些前端性能优化的一些常见策略。

    853
  • 2025-05-22
    1363

    自媒体创作场景实践|通义千问3 + MCP=一切皆有可能

    本文介绍了通过MCP(Model Context Protocol)结合通义千问大模型实现跨平台、跨服务的自动化任务处理方案。使用Qwen3-235B-A22B模型,配合ComfyUI生成图像,并通过小红书等社交媒体发布内容,展示了如何打破AI云服务的数据孤岛。具体实践包括接入FileSystem、ComfyUI和第三方媒体Server,完成从本地文件读取到生成图像再到发布的全流程。 方案优势在于高可扩展性和易用性,但也存在大模型智能化不足、MCP Server开发难度较大及安全风险等问题。未来需进一步提升模型能力、丰富应用场景并解决安全挑战,推动MCP在更多领域落地。

    1,363
  • 2024-05-15
    3829

    大模型推理优化实践:KV cache复用与投机采样

    在本文中,我们将详细介绍两种在业务中实践的优化策略:多轮对话间的 KV cache 复用技术和投机采样方法。我们会细致探讨这些策略的应用场景、框架实现,并分享一些实现时的关键技巧。

    3,829
  • 2024-09-03
    1593

    速成RAG+Agent框架大模型应用搭建

    本文侧重于能力总结和实操搭建部分,从大模型应用的多个原子能力实现出发,到最终串联搭建一个RAG+Agent架构的大模型应用。

    1,593
  • 2024-05-15
    119135

    Paimon 与 Spark 的集成(二):查询优化

    通过一系列优化,我们将 Paimon x Spark 在 TpcDS 上的性能提高了37+%,已基本和 Parquet x Spark 持平,本文对其中的关键优化点进行了详细介绍。

    119,135
  • 130368

    一站式实时数仓Hologres整体能力介绍—2024实时数仓Hologres公开课 01

    一站式实时数仓Hologres整体能力介绍—2024实时数仓Hologres公开课 01

  • 2024-09-04
    2390

    【算法精讲系列】MGTE系列模型,RAG实施中的重要模型

    检索增强生成(RAG)结合检索与生成技术,利用外部知识库提升大模型的回答准确性与丰富性。RAG的关键组件包括文本表示模型和排序模型,前者计算文本向量表示,后者进行精细排序。阿里巴巴通义实验室推出的GTE-Multilingual系列模型,具备高性能、长文档支持、多语言处理及弹性向量表示等特性,显著提升了RAG系统的检索与排序效果。该系列模型已在多个数据集上展示出优越性能,并支持多语言和长文本处理,适用于各种复杂应用场景。

    2,390
  • 2023-02-22
    23209

    Flink CDC+Kafka 加速业务实时化

    阿里巴巴开发工程师,Apache Flink Committer 任庆盛,在 9 月 24 日 Apache Flink Meetup 的分享。

    23,209
  • 2024-11-29
    2100

    作为开发者,我如何提高任务型大模型应用的响应性能

    本文基于实际场景,分享了作为开发者提高大模型响应性能的四个实用方法。

    2,100
  • 1
    ...
    4
    5
    6
    ...
    49
    到第