qwen 调用 langchain 的 prompt模版格式说明 有介绍文档吗
在ModelScope中,调用LangChain的prompt模版格式说明如下:
{
"func_name": "langchain",
"args": {
"intent": "TTI",
"parameters": {
"content": "在这里输入你想要生成的内容",
"width": "",
"height": "",
"ratio": "",
"layout": {}}
}
}
}
其中,func_name
表示要调用的函数名,这里是langchain
。args
是一个对象,包含了函数所需的参数。在这个例子中,我们调用了langchain
函数,并传入了一个名为TTI
的intent和一些参数。
intent
是用于指定要执行的操作,这里使用了TTI
作为示例。你可以根据实际需求修改这个值。
parameters
是一个对象,包含了函数所需的具体参数。在这个例子中,我们传入了以下参数:
content
: 表示要生成的内容,你可以在这里输入你想要生成的文字或信息。width
: 表示生成内容的宽度,可以是一个具体的数值或者一个动态计算的值。如果不需要设置宽度,可以留空或设置为默认值。height
: 表示生成内容的高度,可以是一个具体的数值或者一个动态计算的值。如果不需要设置高度,可以留空或设置为默认值。ratio
: 表示生成内容的宽高比,可以是一个具体的数值或者一个动态计算的值。如果不需要设置宽高比,可以留空或设置为默认值。layout
: 表示生成内容的布局信息,可以是一个包含具体布局信息的JSON对象。如果不需要设置布局信息,可以留空或设置为默认值。在ModelScope中,qwen调用langchain的prompt模版格式是由LangChain的PromptTemplates定义的。它是一种可复制的生成Prompt的方式,其中包含一个文本字符串,可以接受来自用户的一组参数并生成对应的Prompt。具体来说,LangChain中的PromptTemplate类是模板基础类,它接收两个参数:input_variables(输入变量)和template(模版)。模版中可以使用 { } 符号来引用输入变量。例如,当需要输出JSON格式时,可以通过一段提示词让模型输出对应的JSON。此外,为了简化使用动态In构建提示的过程,Langchain还提供了PromptTemplate类。
https://github.com/modelscope/modelscope/blob/master/examples/pytorch/application/qwen_doc_search_QA_based_on_langchain.ipynb https://github.com/modelscope/modelscope-agent/blob/master/demo/demo_qwen_agent.ipynb 。此回答整理自钉钉群:魔搭ModelScope开发者联盟群 ①