官方博客-第7页-阿里云开发者社区

  • 2024-11-01
    1980

    探索LLM推理全阶段的JSON格式输出限制方法

    文章详细讨论了如何确保大型语言模型(LLMs)输出结构化的JSON格式,这对于提高数据处理的自动化程度和系统的互操作性至关重要。

    1,980
  • 2024-09-03
    3476

    【算法精讲系列】通义模型Prompt调优的实用技巧与经验分享

    本文详细阐述了Prompt的设计要素,包括引导语、上下文信息等,还介绍了多种Prompt编写策略,如复杂规则拆分、关键信息冗余、使用分隔符等,旨在提高模型输出的质量和准确性。通过不断尝试、调整和优化,可逐步实现更优的Prompt设计。

  • 2024-09-27
    893

    灵魂拷问-前端的作用--性能优化篇

    作者最近在尝试对负责的平台进行性能优化,本文整理了些前端性能优化的一些常见策略。

    893
  • 2024-12-24
    1346

    探索大型语言模型LLM推理全阶段的JSON格式输出限制方法

    本篇文章详细讨论了如何确保大型语言模型(LLMs)输出结构化的JSON格式,这对于提高数据处理的自动化程度和系统的互操作性至关重要。

    1,346
  • 2024-11-29
    1191

    【由浅到深】从神经网络原理、Transformer模型演进、到代码工程实现

    阅读这个文章可能的收获:理解AI、看懂模型和代码、能够自己搭建模型用于实际任务。

  • 2025-02-28
    1156

    大模型推理主战场:通信协议的标配

    DeepSeek加速了模型平权,大模型推理需求激增,性能提升主战场从训练转向推理。SSE(Server-Sent Events)和WebSocket成为大模型应用的标配网络通信协议。SSE适合服务器单向推送实时数据,如一问一答场景;WebSocket支持双向实时通信,适用于在线游戏、多人协作等高实时性场景。两者相比传统HTTPS协议,能更好地支持流式输出、长时任务处理和多轮交互,满足大模型应用的需求。随着用户体量扩大,网关层面临软件变更、带宽成本及恶意攻击等挑战,需通过无损上下线、客户端重连机制、压缩算法及安全防护措施应对。

    1,156
  • 2025-04-24
    1209

    为什么一定要做Agent智能体?

    作者通过深入分析、理解、归纳,最后解答了“为什么一定要做Agent”这个问题。

  • 2024-05-15
    1765

    简单几步,钉钉机器人秒变通义千问对话机器人

    大模型不知不觉已经火了快一年了,拥有一个能够随时对话使用的大模型已经成为不少人的刚需。然而,最大的问题可能是如何访问和调用对话模型。如果,我是说如果,能在您的即时通讯软件钉钉中直接与通义千问对话,是不是会让这一切更方便快捷?! 按照传统方案,我们要实现上述场景可能需要非常繁琐的接入步骤,甚至还需要自行开发很多代码,这样的准入门槛实在,太!高!啦! 而今天,我要向各位隆重介绍一个新的解决方案——阿里云计算巢AppFlow应用与数据集成平台,无需任何代码开发,简单快捷,自动连接企业内部应用与外部应用或数据,搭建企业的自动化服务流程,帮助个人、企业降低了集成实施的周期和成本。

  • 2024-05-15
    15240

    Llama 3开源,魔搭社区手把手带你推理,部署,微调和评估

    Meta发布了 Meta Llama 3系列,是LLama系列开源大型语言模型的下一代。在接下来的几个月,Meta预计将推出新功能、更长的上下文窗口、额外的模型大小和增强的性能,并会分享 Llama 3 研究论文。

    15,240
  • 1
    ...
    6
    7
    8
    ...
    56
    到第