20行代码:Serverless架构下用Python轻松搞定图像分类和预测

本文涉及的产品
简介: 图像分类是人工智能领域的一个热门话题。通俗解释就是,根据各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。它利用计算机对图像进行定量分析,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,以代替人的视觉判读。图像分类在实际生产生活中也是经常遇到的,而且针对不同领域或者需求有着很强的针对性。例如通过拍照花朵识别花朵信息,通过人脸匹对人物信息等。

前言

图像分类是人工智能领域的一个热门话题。通俗解释就是,根据各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。它利用计算机对图像进行定量分析,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,以代替人的视觉判读。图像分类在实际生产生活中也是经常遇到的,而且针对不同领域或者需求有着很强的针对性。例如通过拍照花朵识别花朵信息,通过人脸匹对人物信息等。

通常情况下,这些图像识别或者分类的工具,都是在客户端进行数据采集,在服务端进行运算获得结果,也就是说一般情况下都是有专门的API实现图像识别的。例如各大云厂商都会为我们有偿提供类似的能力:

阿里云图像识别页面:

华为云图像识别页面:

本文将会通过一个有趣的Python库,快速将图像分类的功能搭建在云函数上,并且和API网关结合,对外提供API功能,实现一个Serverless架构的"图像分类API"。

首先和大家据介绍一下需要的依赖库:ImageAI。通过该依赖的官方文档我们可以看到这样的描述:

ImageAI是一个python库,旨在使开发人员能够使用简单的几行代码构建具有包含深度学习和计算机视觉功能的应用程序和系统。

ImageAI本着简洁的原则,支持最先进的机器学习算法,用于图像预测,自定义图像预测,物体检测,视频检测,视频对象跟踪和图像预测训练。ImageAI目前支持使用在ImageNet-1000数据集上训练的4种不同机器学习算法进行图像预测和训练。ImageAI还支持使用在COCO数据集上训练的RetinaNet进行对象检测,视频检测和对象跟踪。 最终,ImageAI将为计算机视觉提供更广泛和更专业化的支持,包括但不限于特殊环境和特殊领域的图像识别。

也就是说这个依赖库,可以帮助我们完成基本的图像识别和视频的目标提取,虽然他给了一些数据集和模型,但是我们也可以根据自身需要对其进行额外的训练,进行定制化拓展。通过官方给的代码,我们可以看到一个简单的Demo:

# -*- coding: utf-8 -*-

from imageai.Prediction import ImagePrediction


# 模型加载

prediction = ImagePrediction()

prediction.setModelTypeAsResNet()

prediction.setModelPath("resnet50_weights_tf_dim_ordering_tf_kernels.h5")

prediction.loadModel()


predictions, probabilities = prediction.predictImage("./picture.jpg", result_count=5 )

for eachPrediction, eachProbability in zip(predictions, probabilities):

   print(str(eachPrediction) + " : " + str(eachProbability))

当我们指定的picture.jpg图片为:

我们在执行之后的结果是:

laptop : 71.43893241882324

notebook : 16.265612840652466

modem : 4.899394512176514

hard_disc : 4.007557779550552

mouse : 1.2981942854821682

如果在使用过程中觉得模型resnet50_weights_tf_dim_ordering_tf_kernels.h5过大,耗时过长,可以按需求选择模型:

  • SqueezeNet(文件大小:4.82 MB,预测时间最短,精准度适中)
  • ResNet50 by Microsoft Research (文件大小:98 MB,预测时间较快,精准度高)
  • InceptionV3 by Google Brain team (文件大小:91.6 MB,预测时间慢,精度更高)
  • DenseNet121 by Facebook AI Research (文件大小:31.6 MB,预测时间较慢,精度最高)

模型下载地址可参考Github地址:https://github.com/OlafenwaMoses/ImageAI/releases/tag/1.0,或者参考ImageAI官方文档:https://imageai-cn.readthedocs.io/zh_CN/latest/ImageAI_Image_Prediction.html

项目 Serverless 化

将项目按照函数计算的需求,编写好入口方法,以及做好项目初始化,同时在当前项目下创建文件夹model,并将模型文件拷贝到该文件夹:

项目整体流程:

实现代码:

# -*- coding: utf-8 -*-


from imageai.Prediction import ImagePrediction

import json

import uuid

import base64

import random



# Response

class Response:

   def __init__(self, start_response, response, errorCode=None):

       self.start = start_response

       responseBody = {

           'Error': {"Code": errorCode, "Message": response},

       } if errorCode else {

           'Response': response

       }

       # 默认增加uuid,便于后期定位

       responseBody['ResponseId'] = str(uuid.uuid1())

       print("Response: ", json.dumps(responseBody))

       self.response = json.dumps(responseBody)


   def __iter__(self):

       status = '200'

       response_headers = [('Content-type', 'application/json; charset=UTF-8')]

       self.start(status, response_headers)

       yield self.response.encode("utf-8")



# 随机字符串

randomStr = lambda num=5: "".join(random.sample('abcdefghijklmnopqrstuvwxyz', num))


# 模型加载

print("Init model")

prediction = ImagePrediction()

prediction.setModelTypeAsResNet()

print("Load model")

prediction.setModelPath("/mnt/auto/model/resnet50_weights_tf_dim_ordering_tf_kernels.h5")

prediction.loadModel()

print("Load complete")



def handler(environ, start_response):

   try:

       request_body_size = int(environ.get('CONTENT_LENGTH', 0))

   except (ValueError):

       request_body_size = 0

   requestBody = json.loads(environ['wsgi.input'].read(request_body_size).decode("utf-8"))


   # 图片获取

   print("Get pucture")

   imageName = randomStr(10)

   imageData = base64.b64decode(requestBody["image"])

   imagePath = "/tmp/" + imageName

   with open(imagePath, 'wb') as f:

       f.write(imageData)


   # 内容预测

   print("Predicting ... ")

   result = {}

   predictions, probabilities = prediction.predictImage(imagePath, result_count=5)

   print(zip(predictions, probabilities))

   for eachPrediction, eachProbability in zip(predictions, probabilities):

       result[str(eachPrediction)] = str(eachProbability)


   return Response(start_response, result)

所需要的依赖:

tensorflow==1.13.1

numpy==1.19.4

scipy==1.5.4

opencv-python==4.4.0.46

pillow==8.0.1

matplotlib==3.3.3

h5py==3.1.0

keras==2.4.3

imageai==2.1.5

编写部署所需要的配置文件:

ServerlessBookImageAIDemo:

 Component: fc

 Provider: alibaba

 Access: release

 Properties:

   Region: cn-beijing

   Service:

     Name: ServerlessBook

     Description: Serverless图书案例

     Log: Auto

     Nas: Auto

   Function:

     Name: serverless_imageAI

     Description: 图片目标检测

     CodeUri:

       Src: ./src

       Excludes:

         - src/.fun

         - src/model

     Handler: index.handler

     Environment:

       - Key: PYTHONUSERBASE

         Value: /mnt/auto/.fun/python

     MemorySize: 3072

     Runtime: python3

     Timeout: 60

     Triggers:

       - Name: ImageAI

         Type: HTTP

         Parameters:

           AuthType: ANONYMOUS

           Methods:

             - GET

             - POST

             - PUT

           Domains:

             - Domain: Auto


在代码与配置中,可以看到有目录:/mnt/auto/的存在,该部分实际上是nas挂载之后的地址,只需提前写入到代码中即可,下一个环节会进行nas的创建以及挂载点配置的具体操作。

项目部署与测试

在完成上述步骤之后,可以通过:

s deploy

进行项目部署,部署完成可以看到结果:

完成部署之后,可以通过:

s install docker

进行依赖的安装:

依赖安装完成可以看到在目录下生成了.fun的目录,该目录就是通过docker打包出来的依赖文件,这些依赖正是我们在requirements.txt文件中声明的依赖内容。

完成之后,我们通过:

s nas sync ./src/.fun

将依赖目录打包上传到nas,成功之后再将model目录打包上传:

s nas sync ./src/model

完成之后可以通过:

s nas ls --all

查看目录详情:

完成之后,我们可以编写脚本进行测试,同样适用刚才的测试图片,通过代码:

import json

import urllib.request

import base64

import time


with open("picture.jpg", 'rb') as f:

   data = base64.b64encode(f.read()).decode()


url = 'http://35685264-1295939377467795.test.functioncompute.com/'


timeStart = time.time()

print(urllib.request.urlopen(urllib.request.Request(

   url=url,

   data=json.dumps({'image': data}).encode("utf-8")

)).read().decode("utf-8"))

print("Time: ", time.time() - timeStart)


可以看到结果:

{"Response": {"laptop": "71.43893837928772", "notebook": "16.265614330768585", "modem": "4.899385944008827", "hard_disc": "4.007565602660179", "mouse": "1.2981869280338287"}, "ResponseId": "1d74ae7e-298a-11eb-8374-024215000701"}

Time:  29.16020894050598

可以看到,函数计算顺利地返回了预期结果,但是整体耗时却超乎想象,有近30s,此时我们再次执行一下测试脚本:

{"Response": {"laptop": "71.43893837928772", "notebook": "16.265614330768585", "modem": "4.899385944008827", "hard_disc": "4.007565602660179", "mouse": "1.2981869280338287"}, "ResponseId": "4b8be48a-298a-11eb-ba97-024215000501"}

Time:  1.1511380672454834

可以看到,再次执行的时间仅有1.15秒,比上次整整提升了28秒之多。

项目优化

在上一轮的测试中可以看到,项目首次启动和二次启动的耗时差距,其实这个时间差,主要是函数在加载模型的时候浪费了及长的时间。

即使在本地,我们可以简单测试:

# -*- coding: utf-8 -*-


import time


timeStart = time.time()


# 模型加载

from imageai.Prediction import ImagePrediction


prediction = ImagePrediction()

prediction.setModelTypeAsResNet()

prediction.setModelPath("resnet50_weights_tf_dim_ordering_tf_kernels.h5")

prediction.loadModel()

print("Load Time: ", time.time() - timeStart)

timeStart = time.time()


predictions, probabilities = prediction.predictImage("./picture.jpg", result_count=5)

for eachPrediction, eachProbability in zip(predictions, probabilities):

   print(str(eachPrediction) + " : " + str(eachProbability))

print("Predict Time: ", time.time() - timeStart)

执行结果:

Load Time:  5.549695014953613

laptop : 71.43893241882324

notebook : 16.265612840652466

modem : 4.899394512176514

hard_disc : 4.007557779550552

mouse : 1.2981942854821682

Predict Time:  0.8137111663818359

可以看到,在加载imageAI模块以及加载模型文件的过程中,一共耗时5.5秒,在预测部分仅有不到1秒钟的时间。而在函数计算中,机器性能本身就没有我本地的性能高,此时为了降低每次装载模型导致的响应时间过长,在部署的代码中,可以看到模型装载过程实际上是被放在了入口方法之外,这样做的一个好处是,项目每次执行的时候,不一定会有冷启动,也就是说在某些复用的前提下是可以复用一些对象的,即无需每次都重新加载模型,导入依赖等。

所以在实际项目中,为了避免频繁请求,实例重复装载、创建某些资源,我们可以将部分资源放在初始化的时候进行。这样可以大幅度提高项目的整体性能,同时配合厂商所提供的预留能力,可以基本上杜绝函数冷启动带来的负面影响。

总结

近年来,人工智能与云计算的发展是突飞猛进,在Serverless架构中,如何运行传统的人工智能项目已经逐渐成为很多人所需要了解的事情了。本文是通过一个已有的依赖库(ImageAI)实现一个图像分类和预测的接口。通过这个例子,其实是有几个事情可以被明确的:

  • Serverless架构可以运行人工智能相关项目
  • Serverless可以很好的兼容Tensorflow等机器学习/深度学习的工具
  • 虽然说函数计算本身有空间限制,但是实际上增加了硬盘挂在能力之后,函数计算本身的能力将会得到大幅度的拓展

当然,本文也算是抛砖引玉,希望读者在本文之后,可以发挥自己的想象,将更多的AI项目与Serverless架构进行进一步结合

相关实践学习
基于函数计算一键部署掌上游戏机
本场景介绍如何使用阿里云计算服务命令快速搭建一个掌上游戏机。
建立 Serverless 思维
本课程包括: Serverless 应用引擎的概念, 为开发者带来的实际价值, 以及让您了解常见的 Serverless 架构模式
目录
相关文章
|
17天前
|
Java Serverless 应用服务中间件
Serverless 应用引擎操作报错合集之部署python项目时,构建过程报错,怎么解决
Serverless 应用引擎(SAE)是阿里云提供的Serverless PaaS平台,支持Spring Cloud、Dubbo、HSF等主流微服务框架,简化应用的部署、运维和弹性伸缩。在使用SAE过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
6天前
|
监控 持续交付 数据安全/隐私保护
Python进行微服务架构的监控
【6月更文挑战第16天】
29 5
Python进行微服务架构的监控
|
17天前
|
存储 Serverless 数据库
Serverless 应用引擎产品使用合集之在Python中,如何实现SSE
阿里云Serverless 应用引擎(SAE)提供了完整的微服务应用生命周期管理能力,包括应用部署、服务治理、开发运维、资源管理等功能,并通过扩展功能支持多环境管理、API Gateway、事件驱动等高级应用场景,帮助企业快速构建、部署、运维和扩展微服务架构,实现Serverless化的应用部署与运维模式。以下是对SAE产品使用合集的概述,包括应用管理、服务治理、开发运维、资源管理等方面。
|
19天前
|
消息中间件 数据库 微服务
Python进行微服务架构的设计与实现
【6月更文挑战第5天】微服务架构成为软件开发热门,通过拆分小型自治服务提升灵活性、可扩展性和可维护性。Python以其易用性和强大功能,成为实现微服务的理想选择。本文介绍如何利用Python设计和实现微服务,包括: 1. **微服务概述**:解释微服务架构的基本原理,强调松耦合、可伸缩性、灵活性和易维护性等优点。 2. **设计步骤**:确定服务边界、定义接口、实现服务和配置部署。 3. **案例代码**:展示使用Flask实现用户服务和订单服务的简单示例。 4. **代码扩展**:探讨数据持久化、身份验证、异步通信和日志记录等实践。 5. **更多可能性**:讨论服务发现、负载均衡、安全性
25 4
|
18天前
|
Java API Nacos
通过 Python+Nacos实现微服务,细解微服务架构
`shigen`是一名擅长多种编程语言的博主,致力于分享技术成长和认知。他尝试将Python服务构建为微服务架构,模仿Java领域的微服务设计。通过Nacos服务发现和注册,实现了Python Flask应用的微服务化,包括网关、用户中心、鉴权和文档服务。代码示例展示了服务注册、心跳维持、HTTP接口以及网关的代理和认证逻辑。此实现促进了服务安全调用,增强了对数据的保护。通过这种方式,`shigen`揭示了Python+Nacos实现微服务的细节,鼓励读者深入理解微服务工作原理。
40 0
通过 Python+Nacos实现微服务,细解微服务架构
|
27天前
|
资源调度 运维 Cloud Native
云原生架构技术之无服务器技术
当这些BaaS云服务日趋完善时,无服务器技术(Serverless)因为屏蔽了服务器的各种运维复杂度,让开发人员可以将更多精力用于业务逻辑设计与实现,而逐渐成为云原生主流技术之一。
38 5
|
30天前
|
运维 Cloud Native 开发者
云原生架构的未来演进:从容器化到无服务器
【5月更文挑战第28天】 在现代IT领域,云原生技术正成为推动企业数字化转型的核心力量。本文将探讨云原生架构的关键组成部分,包括容器化、微服务以及无服务器计算,并预测这些技术的发展趋势。文章旨在提供一个全面的视角,以理解云原生生态系统如何适应日益复杂的业务需求,并支持构建更加灵活、可扩展的应用程序。
|
26天前
|
Serverless 持续交付 测试技术
无服务器应用架构转型
【6月更文挑战第2天】Serverless架构虽新,但其软件生命周期仍遵循传统模式,需确保交付质量。
|
28天前
|
消息中间件 弹性计算 监控
【Serverless架构组成及优势适用场景】
Serverless的弹性伸缩、按需计费、无状态等特性使得开发者能够更加专注于业务逻辑,摆脱繁琐的服务器管理。它的优势在于灵活应对突发性工作负载、降低成本、提高开发效率,尤其在事件驱动、微服务、后端API等场景中表现出色。虽然Serverless仍然在不断发展,但其已经在云计算领域掀起了一场革命,成为当今应用开发的热门选择。随着技术的不断演进,我们有理由期待Serverless将继续推动应用开发的创新,为我们构建更加高效、可靠的应用提供更多可能。
|
数据库 Python 开发框架
python 架构简介(转)
前言:   开发语言python  越来越火 ,作为开发比较火的语言,python 对网页等的支持也很好,当你想用python来写网页的时候你就要选择框架了。到底要选择呢什么样子的框架,最适合你的项目能力。
1669 0

热门文章

最新文章

相关产品

  • 函数计算