下一代 AI 开发工具Vercel AI SDK 快速入门

简介: 下一代 AI 开发工具Vercel AI SDK 快速入门

最近AI的流行带来了很多相等震撼的开源项目和开发框架,本文分享人工智能驱动的Web开发世界的一个令人兴奋的开发工具 Vercel AI SDK,这是一个在科技界引起轰动的开源库。这个强大的工具集允许开发人员轻松构建边缘就绪的人工智能流文本和聊天Web应用程序。

Vercel AI SDK 是一个工具集合,旨在帮助构建基于AI的Web用户界面。为了更好的了解它可以做什么,本文通过一个快速入门教程,通过构建一个简单的人工智能标语生成器。

一个可互操作、支持流媒体、边缘就绪的软件开发套件,适用于使用 React 和 Svelte 构建的 AI 应用程序。

GitHubgithub.com/vercel-labs…

首先,需要设置项目开发环境,需要安装 Node.js 18+OpenAI API 密钥。通过创建一个新的 Next.js 应用程序来开始。SDK提供了一些入门代码,可帮助快速启动并运行。

项目地址github.com/QuintionTan…

使用以下命令创建新项目:


npx create-next-app vercel-ai-app

此命令启动项目创建项目并指导引导回答一些项目配置的问题:

image.png

之后,将下载并安装项目模板和依赖项。

image.png

安装项目完成后,接下来进入新创建的项目文件夹:


cd vercel-ai-app

接下来,将安装必要的依赖项 aiopenai-edge。后者与 Vercel Edge Functions 兼容,因此比官方 OpenAI SDK 更受欢迎,使用以下命令添加这些依赖项:


npm install ai openai-edge --save

然后,将在项目根目录的 .env.local 文件用来配置 OpenAI API 密钥。


OPENAI_API_KEY=YOUR OPEN AI API KEY

安装样式相关的依赖:


npm install autoprefixer postcss tailwindcss --save

根目录下创建文件 postcss.config.js,代码如下:


module.exports = {
    plugins: {
        tailwindcss: {},
        autoprefixer: {},
    },
};

下一步是创建 API 路由,路由处理程序将使用 Edge Runtime 通过 OpenAI 生成文本完成,然后将其流回 Next.js。 SDK 提供了一个简洁的示例来说明路由处理程序应该是什么样子:


import { Configuration, OpenAIApi } from "openai-edge";
import { OpenAIStream, StreamingTextResponse } from "ai";
const config = new Configuration({
    apiKey: process.env.OPENAI_API_KEY,
});
const openai = new OpenAIApi(config);
export const runtime = "edge";
export async function POST(req) {
    const { prompt } = await req.json();
    const response = await openai.createCompletion({
        model: "text-davinci-003",
        stream: true,
        temperature: 0.6,
        prompt: `Create three slogans for a business with unique features.
    Business: Bookstore with cats
    Slogans: "Purr-fect Pages", "Books and Whiskers", "Novels and Nuzzles"
    Business: Gym with rock climbing
    Slogans: "Peak Performance", "Reach New Heights", "Climb Your Way Fit"
    Business: ${prompt}
    Slogans:`,
    });
    const stream = OpenAIStream(response);
    return new StreamingTextResponse(stream);
}

将上述代码复制到新建文件中 app/api/completion/route.js。接下来分解一下这段代码,首先是导入必要的模块:


import { Configuration, OpenAIApi } from "openai-edge";
import { OpenAIStream, StreamingTextResponse } from "ai";

ConfigurationOpenAIApi 是从 openai-edge 包中导入的。Configuration 用于设置 OpenAI API 客户端的配置,而 OpenAIApi 就是客户端本身。OpenAIStreamStreamingTextResponse 是从 ai 包导入的。OpenAIStream 用于将 OpenAI API 的响应转换为流,StreamingTextResponse 用于将流作为响应返回。

下来,设置 OpenAI API 客户端:


const config = new Configuration({
    apiKey: process.env.OPENAI_API_KEY,
});
const openai = new OpenAIApi(config);

上面代码创建一个新的 Configuration 实例,传入一个包含 OpenAI API 密钥的对象,该密钥存储在环境变量中。然后创建一个新的 OpenAIApi 实例,传入刚刚创建的配置。

将运行时设置为 edge 以获得最佳性能:


export const runtime = "edge";

接下来,定义一个异步函数 POST,它将 Request 对象作为参数:


export async function POST(req) {
    const { prompt } = await req.json();

这个函数实现处理 POST 请求,从请求的 JSON 正文中提取 prompt。然后,根据提示要求 OpenAI 进行流式完成:


const response = await openai.createCompletion({
    model: "text-davinci-003",
    stream: true,
    temperature: 0.6,
    prompt: `Create three slogans for a business with unique features.
Business: Bookstore with cats
Slogans: "Purr-fect Pages", "Books and Whiskers", "Novels and Nuzzles"
Business: Gym with rock climbing
Slogans: "Peak Performance", "Reach New Heights", "Climb Your Way Fit"
Business: ${prompt}
Slogans:`,
});

在 openai 客户端调用 createCompletion 方法,传入一个指定要使用的模型的对象 text-davinci-003,需要一个流响应 stream: true,AI的 temperature 设置(控制输出的随机性),以及AI应该响应的 prompt

接下来,将响应转换为文本流:


const stream = OpenAIStream(response);

通过调用 OpenAIStream,传入 createCompletion 调用的响应,将响应转换为流。最后,返回流作为响应返回给前端:


return new StreamingTextResponse(stream);
}

创建一个新的 StreamingTextResponse,传入流并返回它,并发送回客户端的响应。

小结一下,上面代码设置了一个 OpenAI API 客户端,定义了一个处理 POST 请求的函数,在给定提示的情况下要求 OpenAI 进行流式完成,将响应转换为流,并将流作为响应返回。

最后,将创建一个带有表单的客户端组件,用于收集用户的提示并流回完成结果。SDK 提供了 useCompletion 挂钩来处理用户输入和表单提交。该钩子提供了多个实用函数和状态变量,包括 completioninputhandleInputChangehandleSubmit。将 app/page.js 中的默认代码替换为以下代码:


"use client";
import { useCompletion } from "ai/react";
export default function SloganGenerator() {
    const { completion, input, handleInputChange, handleSubmit } =
        useCompletion();
    return (
        <div className="mx-auto w-full max-w-md py-24 flex flex-col stretch">
            <form onSubmit={handleSubmit}>
                <input
                    className="fixed w-full max-w-md bottom-0 border border-gray-300 rounded mb-8 shadow-xl p-2"
                    value={input}
                    placeholder="Describe your business..."
                    onChange={handleInputChange}
                />
            </form>
            <div className="whitespace-pre-wrap my-6">{completion}</div>
        </div>
    );
}

同样来分解一下这个 React 组件:

首先,从 ai/react 包中导入需要的钩子:


import { useCompletion } from "ai/react";

useCompletionai/react 包提供的自定义 React 钩子。旨在处理用户输入和表单提交,以实现人工智能驱动的完成。

接下来定义一个功能组件 SloganGenerator


export default function SloganGenerator() {

这是在 React 中定义功能组件的标准方式。在这个组件中,将调用 useCompletion 钩子:


const { completion, input, handleInputChange, handleSubmit } =
        useCompletion();

useCompletion 挂钩返回一个包含多个属性的对象:completioninputhandleInputChangehandleSubmitcompletion 是当前的完成结果,表示生成文本的字符串值。input 是用户输入字段的当前值。 handleInputChangehandleSubmit 是处理用户交互的函数,例如分别在输入字段中键入内容和提交表单。

接下来,主要是返回组件的 JSX。

到此可以启动应用程序并通过输入业务描述来进行测试,以实时查看人工智能生成的口号。

使用以下命令启动 Web 应用程序:


npm run dev

已经使用 Vercel AI SDK 构建了一个流式标语生成器。

image.png

流媒体的力量

Vercel AI SDK 的主要功能之一是支持流接口。ChatGPT 等流式会话文本 UI 在过去几个月中获得了广泛的流行,主要是因为它们可以提供更好的用户体验,尤其是在聊天机器人等会话应用程序中。

大型语言模型 (LLM) 非常强大,但在生成长输出时,它们可能会很慢。如果尝试构建传统的阻塞式 UI,用户可能会发现自己花了大量时间盯着加载的 Loading。流式 UI 可以通过在部分响应可用时显示它们来帮助缓解此问题。

SDK 提供了阻塞式和流式 UI 的示例。流式 UI 开始显示响应的速度比阻塞式 UI 快得多,阻塞式 UI 必须等待生成整个响应才能显示任何内容。

缓存响应

根据正在构建的应用程序的类型,可能希望缓存从AI提供商收到的响应,至少是暂时的。Vercel AI SDK 提供了特殊的生命周期回调函数,可以用于此目的。onCompletion 回调特别有用,因为它会在流关闭时被调用,而这里就是可以缓存完整响应的地方。

SDK 提供了如何使用 Vercel KVNext.js 将 OpenAI 响应缓存 1 小时 的示例,这对于频繁发出相同或相似请求的应用程序特别有用。

项目地址github.com/QuintionTan…

总结

Vercel AI SDK 是用于构建人工智能驱动的用户界面的强大工具。它对流接口和响应缓存的支持,以及与 Next.js 等流行框架的兼容性,使其成为开发人员的多功能且高效的工具。无论是构建聊天机器人、标语生成器还是任何其他人工智能驱动的应用程序,Vercel AI SDK 都可以创建流畅且响应迅速的用户体验。


相关文章
|
8天前
|
人工智能 自然语言处理 前端开发
你要的AI Agent工具都在这里
只有让LLM(大模型)学会使用工具,才能做出一系列实用的AI Agent,才能发挥出LLM真正的实力。本篇,我们让AI Agent使用更多的工具,比如:外部搜索、分析CSV、文生图、执行代码等。
你要的AI Agent工具都在这里
|
9天前
|
人工智能 自然语言处理 数据挖掘
利用AI集成工具提升工作效率的实践经验
随着人工智能技术的蓬勃发展,以及当今数字化快速发展的时代,人工智能的运用已经渗透到各个行业和工作领域中,大语言模型在自然语言处理领域的应用也愈发广泛,而且市面上涌现出一批AI集成工具,比如Langchain、Dify、llamaIndex、fastgpt、百炼等,它们为开发者提供了强大的支持和便利,极大地提升了AI模型的构建和管理效率。作为一名热衷于利用新技术提高工作效率的开发者,我也积极尝试将这些工具融入到我的日常工作中,以期望提升工作效率和质量,下面我将分享我是如何使用AI集成工具来提升工作效率的,以及实践经验和心得。
40 1
利用AI集成工具提升工作效率的实践经验
|
10天前
|
机器学习/深度学习 人工智能 搜索推荐
人工智能技术--AI作画工具
AI作画工具是一种运用人工智能技术,特别是深度学习和生成对抗网络(GAN)等算法,自动生成或辅助创作视觉艺术作品的技术。通过机器学习,分析和模拟人类艺术家的创作风格和技巧,从而创作出具有艺术性的画作。
50 1
|
17天前
|
人工智能 自然语言处理 监控
AI大模型智能体工作流涉及使用Ollama和FastGPT这两个工具
AI大模型智能体工作流涉及使用Ollama和FastGPT这两个工具
246 4
|
17天前
|
机器学习/深度学习 人工智能 搜索推荐
日常实用的AI工具推荐!
今年的618购物节氛围降温,消费者更加理性。与此同时,AI工具正日益普及,如开搜AI搜索(中文搜索引擎)、WriteSonic和笔灵AI(写作工具)、MidJourney与DALL-E(AI绘图)、Tableau和Beautiful.ai(数据分析)、Zoho Show(PPT工具)以及Claude(对话工具),这些工具在各自领域提升效率,成为日常生活和工作的得力助手。AI的个性化服务正重塑我们的工作流程,减轻负担并增强生产力。
|
9天前
|
机器学习/深度学习 人工智能 文字识别
【AI落地应用实战】如何让扫描工具更会思考——智能高清滤镜2.0实战测评
扫描全能王的智能高清滤镜2.0利用深度学习技术解决文档图像处理难题,如透字、阴影、褶皱、手指遮挡等问题。它采用自适应感知技术,识别并处理不同元素,同时结合多尺度感知融合方法,提升图像清晰度。实测显示,滤镜在曲面书籍、摩尔纹屏幕、透字文档和光线不均的图画等场景下表现优秀,能智能地适应和优化复杂条件下的扫描效果,提高了文档扫描的效率和质量。
|
11天前
|
人工智能 API 语音技术
MoneyPrinterPlus:AI自动短视频生成工具-微软云配置详解
详细介绍如何使用在MoneyPrinterPlus中配置使用微软云语音服务,实现AI自动短视频生成。
|
16天前
|
API 开发工具
抖音sdk,抖音开发api接口
抖音sdk,抖音开发api接口
|
16天前
|
人工智能 自然语言处理 测试技术
通义灵码评测: 阿里云出品通义大模型AI代码编程辅助工具
通义灵码是阿里云出品的一款基于通义大模型的AI智能编码辅助工具,提供行级/函数级实时续写、自然语言生成代码、单元测试生成、代码注释生成、代码解释、研发智能问答、异常报错排查等能力,并针对阿里云 SDK/OpenAPI 的使用场景调优,助力开发者高效、流畅的编码。
279 0
|
17天前
|
人工智能 API 语音技术
MoneyPrinterPlus:AI自动短视频生成工具-阿里云配置详解
详细介绍如何使用在MoneyPrinterPlus中配置使用阿里云语音服务,实现AI自动短视频生成。