langchain 入门指南 - JSON 形式输出大模型的响应

简介: langchain 入门指南 - JSON 形式输出大模型的响应

在一些入门例子中,我们会发现,我们可以告诉 LLM 如何输出,然后输出的结果真的是我们想要的,比如下面这个例子:

from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(model_name="gpt-3.5-turbo", temperature=0.5, max_tokens=200)
summarizing_prompt_template = """
输出为 JSON 格式,包含字段 content、summary。
总结以下文本为一个 20 字以内的句子:
---
{content}
"""
prompt = PromptTemplate.from_template(summarizing_prompt_template)
summarizing_chain = prompt | llm | StrOutputParser()
print(summarizing_chain.invoke({"content": "这是一个测试。"}))

在实际使用中,content 可能是一个很长的文本。

输出:

{
  "content": "这是一个测试。",
  "summary": "这是一个测试。"
}

正如某些例子上经常写的 “You are a helpful assistant”,其实从某种程度上来说,我们确实可以把 LLM 看作是我们的一名得力助手。

这名助手是可以理解我们说的话并作出回应的。

因此,我们就可以告诉 LLM,我们希望输出的格式是 JSON,然后我们可以在 JSON 中定义我们希望输出的字段。

langchain 中的 JSON 输出

在上面这个例子中,其实是等于我们给了 LLM 一个指令,告诉它我们希望输出的格式是 JSON,然后我们定义了 JSON 的格式。

既然很多时候我们都想要给我们的 LLM 一个指令,那为何不把这些逻辑固定下来呢?

为了解决这个问题,langchain 的 PromptTemplate 为我们提供了指定输出的指令的通用解决方案。

from langchain.output_parsers import StructuredOutputParser, ResponseSchema
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
    model_name="gpt-3.5-turbo",
    temperature=0.5,
    max_tokens=200
)
response_schemas = [
    ResponseSchema(name="content", description="The original content"),
    ResponseSchema(name="summary", description="The summary of the content"),
]
output_parser = StructuredOutputParser.from_response_schemas(response_schemas)
format_instructions = output_parser.get_format_instructions()
summarizing_prompt_template = """
{format_instructions}
总结以下文本为一个 20 字以内的句子:
---
{content}
"""
prompt = PromptTemplate.from_template(summarizing_prompt_template, partial_variables={'format_instructions': format_instructions})
summarizing_chain = prompt | llm | output_parser
print(summarizing_chain.invoke({"content": "这是一个测试。"}))

输出:

{
  "content": "这是一个测试。",
  "summary": "这是一个测试。"
}

说明:

  1. ResponseSchema 用于定义输出的字段,name 为字段名,description 为字段描述。这些信息是给 LLM 看的。LLM 会根据这些信息来输出我们想要的结果。
  2. partial_variables 用于传递部分变量给模板,剩下的变量会在调用 LLM 的时候再传递。

在上面这个例子中,我们实际传递给 LLM 的模板是:

The output should be a markdown code snippet formatted in the following schema, including the leading and trailing "```json" and "```":
```json
{
  "content": string  // The original content
  "summary": string  // The summary of the content
}
```
总结以下文本为一个 20 字以内的句子:
---
这是一个测试。

这个模板告诉 LLM,我们希望输出的格式是 JSON,然后我们定义了 JSON 的格式。

总结

在 langchain 中,我们可以通过 ResponseSchema 来定义我们希望输出的字段,然后生成一个 prompt,传递给 LLM,让 LLM 知道我们希望输出的格式是什么。


相关实践学习
AnalyticDB PostgreSQL 企业智能数据中台:一站式管理数据服务资产
企业在数据仓库之上可构建丰富的数据服务用以支持数据应用及业务场景;ADB PG推出全新企业智能数据平台,用以帮助用户一站式的管理企业数据服务资产,包括创建, 管理,探索, 监控等; 助力企业在现有平台之上快速构建起数据服务资产体系
目录
相关文章
|
6月前
|
人工智能 缓存 监控
使用LangChain4j构建Java AI智能体:让大模型学会使用工具
AI智能体是大模型技术的重要演进方向,它使模型能够主动使用工具、与环境交互,以完成复杂任务。本文详细介绍如何在Java应用中,借助LangChain4j框架构建一个具备工具使用能力的AI智能体。我们将创建一个能够进行数学计算和实时信息查询的智能体,涵盖工具定义、智能体组装、记忆管理以及Spring Boot集成等关键步骤,并展示如何通过简单的对话界面与智能体交互。
2220 1
|
6月前
|
敏捷开发 人工智能 自动驾驶
AI大模型入门第四篇:借助RAG实现精准用例自动生成!
测试开发是否总被用例维护、漏测风险和文档滞后困扰?RAG技术让AI实时解读最新需求,自动生成精准测试用例,动态对齐线上数据,节省70%维护成本,助你告别手工“填坑”,高效应对需求变化。
|
6月前
|
机器学习/深度学习 人工智能 API
新手入门需要掌握多少种大模型才行
新手学大模型,重在掌握一类而非贪多。聚焦通用技能:提示词、思维链、API调用与模型评估。应用开发者精研1个闭源(如GPT)+1个开源(如Llama 3);研究者深入基座模型原理。少即是多,先精通再迁移,用框架(如LangChain)实现模型自由切换。目标是会用工具,而非背诵所有模型。
|
7月前
|
人工智能 JavaScript 前端开发
​​大模型开发从入门到部署
本内容系统讲解大语言模型技术,涵盖BERT、GPT等主流架构,深入Transformer原理与自注意力机制,结合PyTorch实战,详解张量操作、自动求导与模型训练,并介绍RAG、Agent等典型应用场景,助你掌握AI核心技术。
889 0
|
9月前
|
人工智能 数据库
智能体(AI Agent)开发实战之【LangChain】(四)结合大模型基于RAG实现本地知识库问答和纠错
本文介绍如何基于RAG实现知识库问答系统的输入内容纠错功能。通过加载本地知识库、构建向量数据库,结合大语言模型对输入文本进行检索比对与纠错优化,提升问答准确性。
|
9月前
|
数据采集 存储 人工智能
智能体(AI Agent)开发实战之【LangChain】(二)结合大模型基于RAG实现本地知识库问答
智能体(AI Agent)开发实战之【LangChain】(二)结合大模型基于RAG实现本地知识库问答

热门文章

最新文章