前端大模型入门(一):用 js+langchain 构建基于 LLM 的应用

本文涉及的产品
视觉智能开放平台,图像资源包5000点
NLP自然语言处理_高级版,每接口累计50万次
视觉智能开放平台,视频资源包5000点
简介: 本文介绍了大语言模型(LLM)的HTTP API流式调用机制及其在前端的实现方法。通过流式调用,服务器可以逐步发送生成的文本内容,前端则实时处理并展示这些数据块,从而提升用户体验和实时性。文章详细讲解了如何使用`fetch`发起流式请求、处理响应流数据、逐步更新界面、处理中断和错误,以及优化用户交互。流式调用特别适用于聊天机器人、搜索建议等应用场景,能够显著减少用户的等待时间,增强交互性。

利用大模型开发应用时,我们有时候要第一时间给出用户相应,也就是使用流式调用的方式。这时候前端处理响应,就需要特殊的处理:利用处理可读流的方式从响应中读取数据。

随着大语言模型(LLM)在各种应用中的广泛使用,如何高效地从服务器获取模型生成的长文本响应成为一个重要问题。传统的HTTP请求模式通常等待服务器生成完整的响应内容再返回给客户端。然而,流式调用(streaming)通过分段传输部分响应,能提高实时性和用户体验。在此场景中,HTTP流式调用被广泛应用,尤其是在与LLM(如通义千文等)进行交互时。

本文将介绍LLM的HTTP API流式调用的机制,并深入探讨前端如何处理流式响应,以实现实时的、渐进式的结果呈现。

一、什么是HTTP API流式调用?

HTTP API流式调用(HTTP Streaming)是一种传输方式,服务器不会等待所有的数据生成完毕再返回给客户端,而是将响应数据逐步分段发送。当大语言模型生成内容时,服务器可以通过流式传输,将文本按块传递给前端,前端可以立即呈现这些部分内容,无需等待完整响应。

流式响应的基本流程:

  1. 客户端请求:前端通过HTTP请求向服务器发出调用,通常是POST请求,附带需要生成内容的提示(prompt),以及相关的参数。
  2. 服务器处理并分段响应:服务器开始处理请求,但不等待处理结束,先将部分生成的文本作为响应的一个数据块(chunk)发送给客户端。
  3. 客户端逐步接收并处理数据块:客户端持续监听流式响应,接收每个数据块并实时处理或呈现。
  4. 连接关闭:服务器在生成完毕后关闭连接,客户端停止接收数据。

这种方式特别适合用于大语言模型的文本生成任务,因为大规模模型生成的内容可能会很长,逐步输出可以改善用户的等待体验。

二、如何实现LLM的HTTP API流式调用?

以一个调用LLM的流式HTTP API为例,下面是一个使用fetch来发起流式调用的典型前端实现流程。国内的各个大模型,调用方式差不多,参数也类似,甚至还会有openai兼容的openapi接口

const fetchStreamData = async (prompt) => {
   
  const response = await fetch('https://api.openai.com/v1/completions', {
   
    method: 'POST',
    headers: {
   
      'Content-Type': 'application/json',
      'Authorization': `Bearer YOUR_API_KEY`
    },
    body: JSON.stringify({
   
      model: 'gpt-4',
      prompt: prompt,
      stream: true // 启用流式响应
    })
  });

  // 检查响应状态
  if (!response.ok) {
   
    throw new Error('Network response was not ok');
  }

  // 获取响应的可读流并处理流数据
  const reader = response.body.getReader();
  const decoder = new TextDecoder('utf-8');
  let done = false;

  while (!done) {
   
    // 读取流中的下一个数据块
    const {
    value, done: readerDone } = await reader.read();
    done = readerDone;

    // 将数据块解码为字符串
    const chunk = decoder.decode(value, {
    stream: true });
    console.log(chunk);  // 处理或显示每一块数据
    // ***** 这需要注意,各个大模型的分块数据结构可能不一样,甚至会有可能出现部分数据的情况,要单独兼容和处理哦
    // 以及有些模型内容的路径不一样,一次性响应在content,但是流式在delta字段下
  }
};

1. 请求设置

  • fetch函数用于发起POST请求,stream: true选项通知服务器启用流式传输。
  • 请求体中包含模型ID和提示词prompt,以及其他必要参数(如API密钥)。

2. 读取流数据

  • 使用response.body.getReader()获取一个流的阅读器(Reader),该阅读器允许我们按数据块逐步读取响应。
  • TextDecoder将字节数据解码为文本格式,确保能够正确处理流传输中的文本数据。

3. 逐块处理数据

  • 通过reader.read()逐步读取每个数据块,value包含读取到的字节数据,done表示流是否已结束。
  • chunk是解码后的文本数据,每次接收到新的数据块时可以实时处理或显示。

三、前端如何处理流式响应?

当后端返回流式响应时,前端可以逐步接收并更新UI,提供更好的用户交互体验。以下是前端处理流式响应的关键步骤。

1. 逐步更新界面

每当接收到一个新的数据块,前端可以立即将其更新到UI上,而不必等待完整的响应。这种实时更新的机制对于聊天机器人、搜索建议等场景尤为重要。例如:

const chatBox = document.getElementById('chat-box');

const updateChat = (text) => {
   
  // 将新数据块追加到界面上
  chatBox.innerHTML += `<p>${
     text}</p>`;
};

// 在逐块接收时更新
while (!done) {
   
  const {
    value, done: readerDone } = await reader.read();
  const chunk = decoder.decode(value, {
    stream: true });
  updateChat(chunk);  // 实时更新聊天框
}

通过这种方式,用户能够看到模型生成内容的部分结果,即使整个请求尚未完成,提升了用户体验。

2. 处理中断或错误

在流式调用中,网络连接可能会中断,或者服务器可能会返回错误。前端应该做好错误处理,例如:

if (!response.ok) {
   
  console.error('Error with the request');
  return;
}

reader.read().then(processStream).catch(error => {
   
  console.error('Error while reading stream:', error);
});

在中断时,前端可以选择显示错误消息,或尝试重新发起请求以重新建立连接。

3. 流数据的拼接与处理

由于流传输的数据是分块发送的,前端可能需要将这些分段数据拼接起来,形成完整的响应。例如:

let fullResponse = '';

while (!done) {
   
  const {
    value, done: readerDone } = await reader.read();
  const chunk = decoder.decode(value, {
    stream: true });
  fullResponse += chunk;  // 拼接完整响应
}

4. 自动滚动和用户交互优化

对于聊天机器人或类似应用,前端可以设置自动滚动,使得用户在流式数据逐步加载时能够始终看到最新的内容。

const scrollToBottom = () => {
   
  chatBox.scrollTop = chatBox.scrollHeight;
};

updateChat(chunk);
scrollToBottom();  // 更新后自动滚动

四、流式调用的优势

  1. 提升用户体验:通过流式传输,用户能够实时看到部分生成的内容,而不需要等待整个模型生成完毕,从而减少了感知延迟。
  2. 减少服务器压力:在某些场景下,流式调用可以减少服务器压力,因为服务器可以按需逐步处理和发送数据,而不需要一次性生成和发送大量数据。
  3. 增强交互性:用户能够根据逐步收到的内容进行进一步操作,如在对话中实时反馈等。

五、总结

HTTP API流式调用为大语言模型的响应提供了更高效和实时的交互方式。通过流式调用,前端可以逐步接收模型生成的部分数据,并即时呈现,从而提升用户体验。前端在实现流式调用时,需要处理数据分块的拼接、实时更新界面和处理可能的中断错误。通过这种方式,可以在交互密集的应用场景(如聊天机器人、自动化助手等)中大幅改善用户的使用体验。

处理流式调用,尤其是国产大模型的兼容是一个重复的工作,后面的章节如果有空,我会讲讲如何基于rxjs或者langchain.js简化这个工作

相关实践学习
阿里云百炼xAnalyticDB PostgreSQL构建AIGC应用
通过该实验体验在阿里云百炼中构建企业专属知识库构建及应用全流程。同时体验使用ADB-PG向量检索引擎提供专属安全存储,保障企业数据隐私安全。
AnalyticDB PostgreSQL 企业智能数据中台:一站式管理数据服务资产
企业在数据仓库之上可构建丰富的数据服务用以支持数据应用及业务场景;ADB PG推出全新企业智能数据平台,用以帮助用户一站式的管理企业数据服务资产,包括创建, 管理,探索, 监控等; 助力企业在现有平台之上快速构建起数据服务资产体系
相关文章
|
1月前
|
Web App开发 JavaScript 前端开发
深入浅出Node.js:从零开始构建后端服务
【10月更文挑战第42天】在数字时代的浪潮中,掌握一门后端技术对于开发者来说至关重要。Node.js,作为一种基于Chrome V8引擎的JavaScript运行环境,允许开发者使用JavaScript编写服务器端代码,极大地拓宽了前端开发者的技能边界。本文将从Node.js的基础概念讲起,逐步引导读者理解其事件驱动、非阻塞I/O模型的核心原理,并指导如何在实战中应用这些知识构建高效、可扩展的后端服务。通过深入浅出的方式,我们将一起探索Node.js的魅力和潜力,解锁更多可能。
|
27天前
|
JSON 缓存 JavaScript
深入浅出:使用Node.js构建RESTful API
在这个数字时代,API已成为软件开发的基石之一。本文旨在引导初学者通过Node.js和Express框架快速搭建一个功能完备的RESTful API。我们将从零开始,逐步深入,不仅涉及代码编写,还包括设计原则、最佳实践及调试技巧。无论你是初探后端开发,还是希望扩展你的技术栈,这篇文章都将是你的理想指南。
|
7天前
|
弹性计算 自然语言处理 数据库
通过阿里云Milvus和LangChain快速构建LLM问答系统
本文介绍如何通过整合阿里云Milvus、阿里云DashScope Embedding模型与阿里云PAI(EAS)模型服务,构建一个由LLM(大型语言模型)驱动的问题解答应用,并着重演示了如何搭建基于这些技术的RAG对话系统。
38 3
|
20天前
|
JSON JavaScript 前端开发
深入浅出Node.js:从零开始构建RESTful API
在数字化时代的浪潮中,后端开发作为连接用户与数据的桥梁,扮演着至关重要的角色。本文将引导您步入Node.js的奇妙世界,通过实践操作,掌握如何使用这一强大的JavaScript运行时环境构建高效、可扩展的RESTful API。我们将一同探索Express框架的使用,学习如何设计API端点,处理数据请求,并实现身份验证机制,最终部署我们的成果到云服务器上。无论您是初学者还是有一定基础的开发者,这篇文章都将为您打开一扇通往后端开发深层知识的大门。
37 12
|
1月前
|
JSON 数据可视化 NoSQL
基于LLM Graph Transformer的知识图谱构建技术研究:LangChain框架下转换机制实践
本文介绍了LangChain的LLM Graph Transformer框架,探讨了文本到图谱转换的双模式实现机制。基于工具的模式利用结构化输出和函数调用,简化了提示工程并支持属性提取;基于提示的模式则为不支持工具调用的模型提供了备选方案。通过精确定义图谱模式(包括节点类型、关系类型及其约束),显著提升了提取结果的一致性和可靠性。LLM Graph Transformer为非结构化数据的结构化表示提供了可靠的技术方案,支持RAG应用和复杂查询处理。
126 2
基于LLM Graph Transformer的知识图谱构建技术研究:LangChain框架下转换机制实践
|
27天前
|
JavaScript NoSQL API
深入浅出Node.js:从零开始构建RESTful API
在数字化时代的浪潮中,后端开发如同一座灯塔,指引着数据的海洋。本文将带你航行在Node.js的海域,探索如何从一张白纸到完成一个功能完备的RESTful API。我们将一起学习如何搭建开发环境、设计API结构、处理数据请求与响应,以及实现数据库交互。准备好了吗?启航吧!
|
1月前
|
缓存 JavaScript 前端开发
JavaScript 与 DOM 交互的基础及进阶技巧,涵盖 DOM 获取、修改、创建、删除元素的方法,事件处理,性能优化及与其他前端技术的结合,助你构建动态交互的网页应用
本文深入讲解了 JavaScript 与 DOM 交互的基础及进阶技巧,涵盖 DOM 获取、修改、创建、删除元素的方法,事件处理,性能优化及与其他前端技术的结合,助你构建动态交互的网页应用。
43 5
|
29天前
|
缓存 负载均衡 JavaScript
构建高效后端服务:Node.js与Express框架实践
在数字化时代的浪潮中,后端服务的重要性不言而喻。本文将通过深入浅出的方式介绍如何利用Node.js及其强大的Express框架来搭建一个高效的后端服务。我们将从零开始,逐步深入,不仅涉及基础的代码编写,更会探讨如何优化性能和处理高并发场景。无论你是后端新手还是希望提高现有技能的开发者,这篇文章都将为你提供宝贵的知识和启示。
|
1月前
|
JavaScript 中间件 关系型数据库
构建高效的后端服务:Node.js 与 Express 的实践指南
在后端开发领域,Node.js 与 Express 的组合因其轻量级和高效性而广受欢迎。本文将深入探讨如何利用这一组合构建高性能的后端服务。我们将从 Node.js 的事件驱动和非阻塞 I/O 模型出发,解释其如何优化网络请求处理。接着,通过 Express 框架的简洁 API,展示如何快速搭建 RESTful API。文章还将涉及中间件的使用,以及如何结合 MySQL 数据库进行数据操作。最后,我们将讨论性能优化技巧,包括异步编程模式和缓存策略,以确保服务的稳定性和扩展性。
|
1月前
|
JSON JavaScript API
深入浅出Node.js:从零开始构建RESTful API
【10月更文挑战第39天】 在数字化时代的浪潮中,API(应用程序编程接口)已成为连接不同软件应用的桥梁。本文将带领读者从零基础出发,逐步深入Node.js的世界,最终实现一个功能完备的RESTful API。通过实践,我们将探索如何利用Node.js的异步特性和强大的生态系统来构建高效、可扩展的服务。准备好迎接代码和概念的碰撞,一起解锁后端开发的新篇章。