基于AI分词模型,构建一个简陋的Web应用

简介: 前言内容纯属个人经验,若有不当或错误之处,还请见谅,欢迎指出。文中大致介绍了,如何快捷地使用PaddleHub服务化部署一个简单的AI模型,并简单包装成一个Web应用的过程。

前言

内容纯属个人经验,若有不当或错误之处,还请见谅,欢迎指出

文中大致介绍了,如何快捷地使用PaddleHub服务化部署一个简单的AI模型,并简单包装成一个Web应用的过程。

主要工具

  • Flask(python的Web框架)
  • PaddleHub(飞桨的预训练模型库)

1. 效果展示

0164819a22bf4cb784e2072797833f26.png

2. 应用设计

总体思路如下:


使用PaddleHub部署对分词模型lac进行服务化部署

用Flask框架构建app

app从前端获取请求,将请求转发给lac服务,将得到的响应再显示到前端

使用了jinja2模板引擎(没有做前后端全分离,一是简陋的应用没必要,二是我还不会,哈哈)

3. 实现

3.1. lac分词模型的服务化部署

1、什么是服务化部署?

“部署”这个词我见到过很多次了,但总对它的意思有些模糊。有时,将一个AI模型训练好后,保存为本地文件,然后我们就可以在python脚本中加载模型以及使用模型进行预测,这样的过程也称为“部署”。


服务化部署,就是将模型部署为一个“Web服务”。这样部署的效果就是,你只需要对相应的端口发送合适的请求,就可以得到模型的预测结果,即响应。而使用该模型不再需要各种各样的环境依赖(部署的模型本身仍然是运行在其依赖的环境中的)。


感觉说得还是有点迷糊,先就这样叭。

2、lac分词模型的部署方法


lac是PaddleHub模型仓库中的一个“预训练模型”,即已经训练好的模型,部署非常简单(在此之前你需要在python环境中安装好PaddleHub的库,具体安装方法不再赘述,可自行去github上查看相应的文档:PaddleHub),只需要两步:

  • 下载lac模型
  • 一行命令部署

运行下面两行代码时,就会自动下载lac模型(通常会下载到C盘用户目录的.paddlehub文件夹中,通常还有一个README.md文件,里面是模型的介绍以及使用教程)

import paddlehub as hub
lac = hub.Module(name="lac")

用下面的代码对模型进行测试:

import paddlehub as hub
lac = hub.Module(name="lac")
test_text = ["今天是个好天气。"]
results = lac.cut(text=test_text, use_gpu=False, batch_size=1, return_tag=True)
print(results)
#{'word': ['今天', '是', '个', '好天气', '。'], 'tag': ['TIME', 'v', 'q', 'n', 'w']}

然后命令行启动服务完成部署(不执行上面的代码,直接运行命令,也可以自动下载模型),

hub serving start -m lac

启动成功时的终端输出:

 * Running on all addresses (0.0.0.0)
 * Running on http://127.0.0.1:8866
 * Running on http://192.168.43.166:8866
INFO 2023-03-17 00:12:29,487 _internal.py:224] Press CTRL+C to quit

3.2 使用Flask构建app

1、目录结构

- templates
  - index.html
- app.py
- forms.py

:templates这个文件夹是固定的,与flask框架的render_template搭配使用,html文件都放里面,不然找不到。

2、forms.py

定义了一个表单类TextForm,之后就从网页的表单中输入待分析的文本,将数据传到后端。

from flask_wtf import FlaskForm
from wtforms import StringField
from wtforms.validators import DataRequired
class TextForm(FlaskForm):
    text = StringField('待分析的文本', validators=[DataRequired(message="不能为空")])

3、app.py

该脚本也会启动一个Web服务,直接在浏览器输入链接http://127.0.0.1:5000即可访问,其中5000app.run()中的port参数指定。

from flask import Flask, jsonify, render_template, request
import requests
from forms import TextForm
app = Flask(__name__)
app.config['SECRET_KEY'] = 'your_secret_key_here'
@app.route('/', methods=['GET', 'POST'])
def predict():
  # 实例化一个表单对象
    form = TextForm()
    if form.validate_on_submit():
        # 1. 将表单的文本数据转换为字典 --> lac服务的输入要求是字典
        data = {"text": form.text.data}
        # 2. 向paddlehub的lac服务发送请求 --> 链接是使用paddlehub部署时内部默认指定的
        response = requests.post("http://127.0.0.1:8866/predict/lac", json=data)
        result = response.json()
        results = result['results']
        return render_template('index.html', form=form, results=results)
    return render_template('index.html', form=form)
if __name__ == '__main__':
    app.run(debug=True, port=5000)  # port指定运行的端口

3、index.html

主页内容。

html文件中,使用了一些属于flask的jinja2(模板引擎,渲染html文件)的语法,即带{% %}{{ }}的内容。其中{% %}实现控制结构,{{ }}引用从render_template传过来的参数。

由于我前端了解较少,下面的页面显示起来是比较简陋的,但核心功能已经完成(能run就行)。

<h1>体验分词功能</h1>
<form action="" method="post" class="mt-4">
    <!-- csrf这一句好像可以删掉 -->
    {{ form.csrf_token }}
    {{ form.text(class='input', style='width:500px', placeholder='请输入待分析的文本') }}
    <input type="submit" value="Submit">
</form>
{% if results %}
    <p>分词结果如下:</p>
{% endif %}
<p>
{% for word in results %}
    {{ word }} 
{% endfor %}
</p>

4. 小结

  • 本次实现了一个简陋的网页应用,应用的核心功能——分词,是由另一个独立运行的服务lac提供的。将AI模型独立部署有一个好处,即它可以同时为多个网页应用提供服务。
  • 也是我自己是对之前学习的Flask知识的一次小的实践尝试。


相关文章
|
10天前
|
机器学习/深度学习 人工智能 自然语言处理
AI技术深度解析:从基础到应用的全面介绍
人工智能(AI)技术的迅猛发展,正在深刻改变着我们的生活和工作方式。从自然语言处理(NLP)到机器学习,从神经网络到大型语言模型(LLM),AI技术的每一次进步都带来了前所未有的机遇和挑战。本文将从背景、历史、业务场景、Python代码示例、流程图以及如何上手等多个方面,对AI技术中的关键组件进行深度解析,为读者呈现一个全面而深入的AI技术世界。
67 10
|
3天前
|
机器学习/深度学习 人工智能 物联网
AI赋能大学计划·大模型技术与应用实战学生训练营——湖南大学站圆满结营
12月14日,由中国软件行业校园招聘与实习公共服务平台携手魔搭社区共同举办的AI赋能大学计划·大模型技术与产业趋势高校行AIGC项目实战营·湖南大学站圆满结营。
AI赋能大学计划·大模型技术与应用实战学生训练营——湖南大学站圆满结营
|
15天前
|
机器学习/深度学习 人工智能 自然语言处理
转载:【AI系统】AI的领域、场景与行业应用
本文概述了AI的历史、现状及发展趋势,探讨了AI在计算机视觉、自然语言处理、语音识别等领域的应用,以及在金融、医疗、教育、互联网等行业中的实践案例。随着技术进步,AI模型正从单一走向多样化,从小规模到大规模分布式训练,企业级AI系统设计面临更多挑战,同时也带来了新的研究与工程实践机遇。文中强调了AI基础设施的重要性,并鼓励读者深入了解AI系统的设计原则与研究方法,共同推动AI技术的发展。
转载:【AI系统】AI的领域、场景与行业应用
|
10天前
|
机器学习/深度学习 人工智能 算法
探索AI在医疗诊断中的应用与挑战
【10月更文挑战第21天】 本文深入探讨了人工智能(AI)技术在医疗诊断领域的应用现状与面临的挑战,旨在为读者提供一个全面的视角,了解AI如何改变传统医疗模式,以及这一变革过程中所伴随的技术、伦理和法律问题。通过分析AI技术的优势和局限性,本文旨在促进对AI在医疗领域应用的更深层次理解和讨论。
|
7天前
|
弹性计算 Java 关系型数据库
Web应用上云经典架构实践教学
Web应用上云经典架构实践教学
Web应用上云经典架构实践教学
|
15天前
|
Kubernetes 安全 Devops
有效抵御网络应用及API威胁,聊聊F5 BIG-IP Next Web应用防火墙
有效抵御网络应用及API威胁,聊聊F5 BIG-IP Next Web应用防火墙
39 10
有效抵御网络应用及API威胁,聊聊F5 BIG-IP Next Web应用防火墙
|
15天前
|
人工智能 缓存 异构计算
云原生AI加速生成式人工智能应用的部署构建
本文探讨了云原生技术背景下,尤其是Kubernetes和容器技术的发展,对模型推理服务带来的挑战与优化策略。文中详细介绍了Knative的弹性扩展机制,包括HPA和CronHPA,以及针对传统弹性扩展“滞后”问题提出的AHPA(高级弹性预测)。此外,文章重点介绍了Fluid项目,它通过分布式缓存优化了模型加载的I/O操作,显著缩短了推理服务的冷启动时间,特别是在处理大规模并发请求时表现出色。通过实际案例,展示了Fluid在vLLM和Qwen模型推理中的应用效果,证明了其在提高模型推理效率和响应速度方面的优势。
云原生AI加速生成式人工智能应用的部署构建
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
AI在自然语言处理中的突破:从理论到应用
AI在自然语言处理中的突破:从理论到应用
51 17
|
6天前
|
人工智能 Serverless API
尽享红利,Serverless构建企业AI应用方案与实践
本次课程由阿里云云原生架构师计缘分享,主题为“尽享红利,Serverless构建企业AI应用方案与实践”。课程分为四个部分:1) Serverless技术价值,介绍其发展趋势及优势;2) Serverless函数计算与AI的结合,探讨两者融合的应用场景;3) Serverless函数计算AIGC应用方案,展示具体的技术实现和客户案例;4) 业务初期如何降低使用门槛,提供新用户权益和免费资源。通过这些内容,帮助企业和开发者快速构建高效、低成本的AI应用。
44 12
|
3天前
|
人工智能 容灾 关系型数据库
【AI应用启航workshop】构建高可用数据库、拥抱AI智能问数
12月25日(周三)14:00-16:30参与线上闭门会,阿里云诚邀您一同开启AI应用实践之旅!