魔搭社区与函数计算:高效部署开源大模型的文本生成服务体验

简介: 在数字化时代,人工智能技术迅速发展,开源大模型成为重要成果。魔搭社区(ModelScope)作为开源大模型的聚集地,结合阿里云函数计算,提供了一种高效、便捷的部署方式。通过按需付费和弹性伸缩,开发者可以快速部署和使用大模型,享受云计算的便利。本文介绍了魔搭社区与函数计算的结合使用体验,包括环境准备、部署应用、体验使用和资源清理等步骤,并提出了改进建议。

在当今数字化时代,人工智能(AI)技术正以前所未有的速度改变着我们的生活方式和工作模式。其中,开源大模型作为AI领域的重要成果,为各行各业提供了强大的技术支持。魔搭社区(ModelScope)作为开源大模型的聚集地,为广大开发者提供了一个便捷的平台。通过结合函数计算,我们不仅能够快速部署这些大模型,还能利用函数计算的诸多优势,如按使量付费和弹性伸缩,高效地为用户提供文本生成服务。以下是我对魔搭社区与函数计算结合使用的测评体验。

一、初识魔搭社区与函数计算

魔搭社区(ModelScope)是一个开放的AI模型共享平台,汇聚了众多优质的开源大模型。这些模型涵盖了自然语言处理、计算机视觉、语音识别等多个领域,为开发者提供了丰富的选择。无论是想要进行文本生成、图像识别还是语音识别,都能在这里找到合适的模型。
image.png

函数计算则是一种无服务器计算服务,它允许开发者在不管理服务器的情况下运行代码。函数计算会根据实际请求量自动伸缩计算资源,并按实际使用量收费,极大地降低了运维成本和时间成本。可以将更多的精力投入到算法优化和业务逻辑上,而无需担心底层资源的配置和管理。
image.png

二、基于函数计算快速部署开源大模型

1、 方案概览

只需10分钟就可以将开源大模型轻松部署到阿里云函数计算上,畅享大模型的强大功能。无需拥有或维护昂贵的GPU资源,按需付费的模式更能帮助您节省成本,尽情体验云计算带来的便利与灵活性。
image.png

2、 环境准备

1)注册阿里云账号 2)开通函数计算 3)开通文件存储NAS服务 4) 注册ModelScope账号,并绑定阿里云账号。

在魔搭访问(https://www.modelscope.cn/my/myaccesstoken) 按照下图绑定阿里云账号。
image.png
image.png
image.png

3、 部署应用

1)在魔搭访问(https://www.modelscope.cn/my/myaccesstoken) 获取令牌。
image.png

2)访问函数计算应用模板

  • 参考图片模型来源选择ModelScope;
  • 模型ID填入ZhipuAI/chatglm3-6b;
  • 模型版本填入v1.0.2;
  • 地域目前仅支持华东1(杭州)或华东2(上海),选择华东2(上海);
  • 模型任务类型填入chat;
  • Access Token 填入ModelScope 的访问令牌。
  • 其余配置项保持默认值即可,单击创建应用。
    image.png

创建中, 创建时间2024年11月2日 20:30:31,完成时间2024年11月2日 20:38:37 耗时为8分钟。
image.png

3)创建成功后,为应用开启闲置预留模式。配置预留实例,可以有效避免因实例冷启动导致的请求延迟问题。同时,可以配置预留实例的弹性伸缩规则如定时伸缩和水位伸缩,提高实例使用率,解决资源浪费问题。

  • 应用部署完成后,在资源信息区域单击后缀为model-app-func的函数名称跳转至函数详情页。
    image.png
    image.png

  • 在函数详情页,选择配置页签,在左侧导航栏,选择预留实例,然后单击创建预留实例数策略。
    image.png

  • 在创建预留实例数策略页面,版本和别名选择为LATEST,预留实例数设置为1,启用闲置模式,然后单击确定。
    image.png

  • 等待容器实例成功启动后,可以看到当前预留实例数为1,且显示已开启闲置模式字样,表示闲置预留实例已成功启动
    image.png

整个部署过程非常顺畅耗时8分钟,只需要关注模型的选择、版本和任务类型,无需担心底层资源的配置和管理。函数计算平台会根据实际请求量自动伸缩计算资源,确保服务的稳定性和高效性。

三、体验使用LLM应用

部署完成后,可以使用函数计算应用提供的域名访问服务,与模型进行对话。

1、在环境详情页面,点击访问域名右侧的域名,使用LLM应用。
image.png
image.png

2、输入文本信息,然后单击Submit,您可以看到模型的回答结果。
image.png
image.png

image.png

初次的处理结果每次交互大概1分钟左右。

四、资源清理

1、删除ModelScope使用的函数

登录函数计算控制台,在左侧导航栏,单击应用。在应用页面,找到目标应用,单击右侧操作列的删除应用。
image.png

image.png

删除应用提示失败
image.png

需要手动删除函数和域名

image.png

image.png

image.png
image.png

2、登录NAS文件存储控制台,在左侧导航栏选择文件系统 > 文件系统列表。在文件系统列表,找到目标文件系统,在其右侧操作列,然后单击删除。
image.png
image.png
image.png

五、总结

通过本次对魔搭社区与函数计算结合使用的体验,深刻感受到了开源大模型和无服务器计算技术的强大魅力。这些技术不仅为开发者提供了丰富的选择和便捷的工具,还极大地提高了服务的稳定性和高效性。

关于本次实践体验的反馈和建议如下:

1、本次实践中配置了预留实例,但没有很好体现出预留实例的功能及作用,可以增加下配置预留实例和不配置预留实例的使用对比。

2、在部署过程中函数应用创建时在日志里有报错,但可以部署成功,暂时也没有影响使用,可以看下是否需要优化。


Duration: 342752.33 ms, Billed Duration: 342753 ms, Memory Size: 16384 MB, Max Memory Used: 11980.74 MB
========= FC invoke Logs end =========

Invoke instanceId: c-67261bcd-1663628b-aa8652a176d2
Code Checksum: 13447116201843826969
Qualifier: LATEST
RequestId: 1-67261bcd-169f5165-95f2f369919d
Error Type: InvocationError

Invoke Result:
{
    "errorMessage": "File pytorch_model.bin.index.json download incomplete, content_length: None but the                     file downloaded length: 20437, please download again",
    "errorType": "FileDownloadError",
    "stackTrace": [
        [
            "File \"/code/index.py\"",
            "line 13",
            "in handler",
            "snapshot_download (model_id =model_id,"
        ],
        [
            "File \"/code/modelscope/hub/snapshot_download.py\"",
            "line 153",
            "in snapshot_download",
            "http_get_file("
        ],
        [
            "File \"/code/modelscope/hub/file_download.py\"",
            "line 319",
            "in http_get_file",
            "raise FileDownloadError(msg)"
        ]
    ]
}

image.png

3、在清理函数资源的时候,发生了报错。需要手动删除函数和域名。针对这部分可以补充在清理资源部分——删除失败如何处理。

image.png

image.png

image.png

4、整个体验的场景中没有展现出函数计算的弹性伸缩优势,可以增加这部分的场景验证。比如模拟对话量请求量增加时,平台会自动增加计算资源以满足需求;当请求量减少时,平台会自动释放多余的计算资源以降低成本。

5、在实际生产中会使用多个大模型,如果需要在不同的模型之间切换,是否可以在当前的部署函数应用实现,还是每一个模型都需要部署一个函数应用。

6、若自己来选择大模型的配置,函数计算页面提示中模型ID、模型版本、模型任务类型获取方式不够详细,希望可以增加这个参数的获取魔搭具体页面截图。

image.png

image.png

7、什么情况下需要自己修改显存大小和内存大小?
image.png

8、访问模型的时候,在处理对话的期间,右上角的数字一直在增长,这是处理的时间吗?还是什么值,作用是什么?

image.png

相关实践学习
【AI破次元壁合照】少年白马醉春风,函数计算一键部署AI绘画平台
本次实验基于阿里云函数计算产品能力开发AI绘画平台,可让您实现“破次元壁”与角色合照,为角色换背景效果,用AI绘图技术绘出属于自己的少年江湖。
从 0 入门函数计算
在函数计算的架构中,开发者只需要编写业务代码,并监控业务运行情况就可以了。这将开发者从繁重的运维工作中解放出来,将精力投入到更有意义的开发任务上。
相关文章
|
3月前
|
人工智能 缓存 自然语言处理
Java与多模态AI:构建支持文本、图像和音频的智能应用
随着大模型从单一文本处理向多模态能力演进,现代AI应用需要同时处理文本、图像、音频等多种信息形式。本文深入探讨如何在Java生态中构建支持多模态AI能力的智能应用。我们将完整展示集成视觉模型、语音模型和语言模型的实践方案,涵盖从文件预处理、多模态推理到结果融合的全流程,为Java开发者打开通往下一代多模态AI应用的大门。
421 41
|
4月前
|
自然语言处理 安全
Min-p采样:通过动态调整截断阈值让大模型文本生成兼顾创造力与逻辑性
大语言模型通过预测下一个词生成文本,采样策略决定其创造力与连贯性。Min-p采样根据模型置信度动态调整选择阈值,在高不确定性时扩大候选范围,低不确定性时聚焦高概率词,相较Top-k、Top-p等方法,更好平衡了多样性与质量,尤其在高温下仍保持输出稳定,提升生成文本的流畅性与创新性。
221 3
|
3月前
|
人工智能 自然语言处理 自动驾驶
超越文本:多模态大语言模型如何让AI“看世界
超越文本:多模态大语言模型如何让AI“看世界
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
88_多模态提示:图像与文本融合
在人工智能领域的快速发展中,多模态融合已成为突破单一模态限制、实现更全面智能理解的关键技术方向。人类理解世界的方式天然是多模态的——我们同时通过视觉、听觉、语言等多种感官获取信息并进行综合分析。例如,在餐厅点餐时,我们会同时处理菜单上的图片、服务员的介绍和菜品的文字描述,最终做出决策。这种自然的多模态信息整合能力,正是人工智能系统长期以来努力追求的目标。
|
9月前
|
人工智能 运维 安全
函数计算支持热门 MCP Server 一键部署
云上托管 MCP 搭建 AI Agent 将成为趋势。函数计算 FC 目前已经支持开源 MCP Server 一键托管,欢迎体验。
1337 113
|
8月前
|
存储 机器学习/深度学习 人工智能
多模态RAG实战指南:完整Python代码实现AI同时理解图片、表格和文本
本文探讨了多模态RAG系统的最优实现方案,通过模态特定处理与后期融合技术,在性能、准确性和复杂度间达成平衡。系统包含文档分割、内容提取、HTML转换、语义分块及向量化存储五大模块,有效保留结构和关系信息。相比传统方法,该方案显著提升了复杂查询的检索精度(+23%),并支持灵活升级。文章还介绍了查询处理机制与优势对比,为构建高效多模态RAG系统提供了实践指导。
2311 0
多模态RAG实战指南:完整Python代码实现AI同时理解图片、表格和文本
|
9月前
|
Serverless Python
借助 serverless 将 MCP 服务部署到云端
本文介绍了如何将 MCP 服务通过 SSE 协议部署到云端,避免本地下载和启动的麻烦。首先,使用 Python 实现了一个基于 FastMCP 的网络搜索工具,并通过设置 `transport='sse'` 启用 SSE 协议。接着,编写客户端代码测试服务功能,确保其正常运行。随后,利用阿里云函数计算服务(FC 3.0)以 Serverless 方式部署该服务,包括创建函数、配置环境变量、添加依赖层以及部署代码。最后,提供了客户端测试方法和日志排查技巧,并展示了如何在不同工具(如 Cherry-Studio、Cline 和 Cursor)中配置云端 MCP 服务。
1520 10
借助 serverless 将 MCP 服务部署到云端
|
8月前
|
边缘计算 弹性计算 人工智能
魔搭社区大模型一键部署到阿里云边缘云(ENS)
随着大模型技术的快速发展,业界的关注点正逐步从模型训练往模型推理 转变。这一转变不仅反映了大模型在实际业务中的广泛应用需求,也体现了技术优化和工程化落地的趋势。
880 7
|
SQL 人工智能 关系型数据库
SQL玩转多模态AI,轻松搞定图片+文本混合搜索
本文介绍了一种通过原生SQL实现多模态智能检索的破局思路,基于PolarDB创新融合AI智能引擎,解决传统AI检索系统数据迁移冗余和工具链割裂的问题。方案优势包括低门槛AI集成、灵活适配多场景、全链路数据安全及按需付费免运维。文章详细描述了部署资源、应用配置及方案验证步骤,并提供清理资源指南以避免额外费用。适合希望快速构建智能搜索应用的开发者参考实践。
|
10月前
|
人工智能 缓存 Apache
Mistral Small 3.1:240亿参数多模态黑马!128k长文本+图像分析,推理速度150token/秒
Mistral Small 3.1 是 Mistral AI 开源的多模态人工智能模型,具备 240 亿参数,支持文本和图像处理,推理速度快,适合多种应用场景。
410 7
Mistral Small 3.1:240亿参数多模态黑马!128k长文本+图像分析,推理速度150token/秒

热门文章

最新文章