LazyLLM:还在为AI应用开发掉头发?商汤开源智能体低代码开发工具,三行代码部署聊天机器人

简介: LazyLLM 是一个低代码开发平台,可帮助开发者快速构建多智能体大语言模型应用,支持一键部署、跨平台操作和多种复杂功能。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦


💥 “凌晨3点的程序员都在哭(bushi):商汤开源的这个工具,让AI应用开发卷成填空题!”
大家好,我是蚝油菜花。你是否也经历过——

  • 👉 想用GPT-4做智能客服,却在LangChain的API地狱里迷路
  • 👉 调教多模型协作时,被线程管理和数据流逼到秃头
  • 👉 好不容易跑通Demo,却卡在微调参数和部署环节...

今天要分享的 LazyLLM ,正是商汤大装置团队扔向开发者的一颗救星!帮助开发者以低成本快速构建多智能体的大语言模型应用:

  • ✅ 5行代码组建AI团队:让ChatGPT处理文案,Claude分析数据,SDXL生成图表
  • ✅ 动态Token剪枝黑科技:长文本推理速度提升300%
  • ✅ 企业级一键部署:从本地测试到云端上线只需1条命令

🚀 快速阅读

LazyLLM 是一款低代码开发工具,专注于多智能体大语言模型应用的构建。

  1. 核心功能:支持低代码开发、多智能体协同、模型微调与推理、一键部署和跨平台兼容。
  2. 技术原理:采用数据流驱动开发方式,模块化设计支持灵活组合,动态优化模型性能。

LazyLLM 是什么

LazyLLM-cover

LazyLLM 是一个低代码开发工具,旨在帮助开发者以低成本快速构建多智能体的大语言模型应用。它通过简化的开发流程,降低 AI 应用的开发门槛,尤其适合初学者和专业开发者。无论是聊天机器人、检索增强生成(RAG)还是多模态应用,都可以通过少量代码实现复杂功能。

LazyLLM 提供了一键部署和跨平台支持的能力,兼容 Windows、Linux 和 macOS 等多种操作系统环境。同时,它还支持在线和离线模型的推理,能够结合图像、音频等多模态数据,拓展应用场景。

LazyLLM 的主要功能

  • 低代码开发:通过极简的开发流程,快速构建复杂的 AI 应用,降低开发难度。
  • 多智能体支持:支持多个模型协同工作,满足不同场景下的需求。
  • 模型微调与推理:支持在线和离线模型微调,兼容多种推理框架。
  • 一键部署:通过轻量级网关机制,支持本地或云端的一键部署。
  • 跨平台支持:兼容多种操作系统和环境,便于灵活选择开发和部署环境。
  • 多模态扩展:支持结合图像、音频等数据,构建更丰富的应用场景。
  • 灵活配置:提供丰富的配置选项,支持定制化开发和性能优化。

LazyLLM 的技术原理

  • 数据流驱动开发:通过 Pipeline、Parallel、Diverter 和 Loop 等数据流控制方式,灵活组织复杂的数据处理流程。
  • 组件化与模块化设计:基于组件和模块构建应用,支持训练、部署、推理和评估等核心能力。
  • 模型微调与参数优化:自动选择最佳微调框架和参数分割策略,支持网格搜索优化配置。
  • 动态 Token 剪枝:引入动态剪枝技术,提高长文本推理效率。

如何运行 LazyLLM

1. 安装 LazyLLM

可以通过以下两种方式快速安装:

# 使用 pip 安装基础依赖
pip3 install lazyllm

# 安装完整依赖
pip3 install lazyllm
lazyllm install full

2. 三行代码部署聊天机器人

以下是一个简单的聊天机器人示例:

import lazyllm
chat = lazyllm.OnlineChatModule()
lazyllm.WebModule(chat).start().wait()

如果使用本地模型,可以指定模型名称:

chat = lazyllm.TrainableModule('internlm2-chat-7b')
lazyllm.WebModule(chat, port=23466).start().wait()

如果你使用pip安装了lazyllm并确保Python环境的bin目录在你的$PATH中,你还可以通过执行一行命令lazyllm run chatbot快速启动聊天机器人!如果你想使用本地模型,只需要使用--model参数指定模型名称。例如,你可以使用lazyllm run chatbot --model=internlm2-chat-7b启动基于本地模型的聊天机器人。

3. 构建具有多模态和意图识别的高级智能体

LazyLLM-multimodal-bot

代码示例:

from lazyllm import TrainableModule, WebModule, deploy, pipeline
from lazyllm.tools import IntentClassifier

painter_prompt = 'Now you are a master of drawing prompts, capable of converting any Chinese content entered by the user into English drawing prompts. In this task, you need to convert any input content into English drawing prompts, and you can enrich and expand the prompt content.'
musician_prompt = 'Now you are a master of music composition prompts, capable of converting any Chinese content entered by the user into English music composition prompts. In this task, you need to convert any input content into English music composition prompts, and you can enrich and expand the prompt content.'

base = TrainableModule('internlm2-chat-7b')
with IntentClassifier(base) as ic:
    ic.case['Chat', base]
    ic.case['Speech Recognition', TrainableModule('SenseVoiceSmall')]
    ic.case['Image QA', TrainableModule('Mini-InternVL-Chat-2B-V1-5').deploy_method(deploy.LMDeploy)]
    ic.case['Drawing', pipeline(base.share().prompt(painter_prompt), TrainableModule('stable-diffusion-3-medium'))]
    ic.case['Generate Music', pipeline(base.share().prompt(musician_prompt), TrainableModule('musicgen-small'))]
    ic.case['Text to Speech', TrainableModule('ChatTTS')]
WebModule(ic, history=[base], audio=True, port=8847).start().wait()

4. 构建 RAG 应用

LazyLLM-RAG

导入库和提示词:

import os
import lazyllm
from lazyllm import pipeline, parallel, bind, SentenceSplitter, Document, Retriever, Reranker

prompt = 'You will play the role of an AI Q&A assistant and complete a dialogue task. In this task, you need to provide your answer based on the given context and question.'

以下是一个在线部署的 RAG 示例:

documents = Document(dataset_path="your data path", embed=lazyllm.OnlineEmbeddingModule(), manager=False)
documents.create_node_group(name="sentences", transform=SentenceSplitter, chunk_size=1024, chunk_overlap=100)

with pipeline() as ppl:
    with parallel().sum as ppl.prl:
        prl.retriever1 = Retriever(documents, group_name="sentences", similarity="cosine", topk=3)
        prl.retriever2 = Retriever(documents, "CoarseChunk", "bm25_chinese", 0.003, topk=3)

    ppl.reranker = Reranker("ModuleReranker", model="bge-reranker-large", topk=1) | bind(query=ppl.input)
    ppl.formatter = (lambda nodes, query: dict(context_str="".join([node.get_content() for node in nodes]), query=query)) | bind(query=ppl.input)
    ppl.llm = lazyllm.OnlineChatModule(stream=False).prompt(lazyllm.ChatPrompter(prompt, extro_keys=["context_str"]))

lazyllm.WebModule(ppl, port=23466).start().wait()

以下是一个本地部署的示例:

documents = Document(dataset_path='/file/to/yourpath', embed=lazyllm.TrainableModule('bge-large-zh-v1.5'))
documents.create_node_group(name="sentences", transform=SentenceSplitter, chunk_size=1024, chunk_overlap=100)

with pipeline() as ppl:
    with parallel().sum as ppl.prl:
        prl.retriever1 = Retriever(documents, group_name="sentences", similarity="cosine", topk=3)
        prl.retriever2 = Retriever(documents, "CoarseChunk", "bm25_chinese", 0.003, topk=3)

    ppl.reranker = Reranker("ModuleReranker", model="bge-reranker-large", topk=1) | bind(query=ppl.input)
    ppl.formatter = (lambda nodes, query: dict(context_str="".join([node.get_content() for node in nodes]), query=query)) | bind(query=ppl.input)
    ppl.llm = lazyllm.TrainableModule("internlm2-chat-7b").prompt(lazyllm.ChatPrompter(prompt, extro_keys=["context_str"]))

lazyllm.WebModule(ppl, port=23456).start().wait()

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦

相关文章
|
5月前
|
存储 人工智能 Java
AI 超级智能体全栈项目阶段二:Prompt 优化技巧与学术分析 AI 应用开发实现上下文联系多轮对话
本文讲解 Prompt 基本概念与 10 个优化技巧,结合学术分析 AI 应用的需求分析、设计方案,介绍 Spring AI 中 ChatClient 及 Advisors 的使用。
1918 133
AI 超级智能体全栈项目阶段二:Prompt 优化技巧与学术分析 AI 应用开发实现上下文联系多轮对话
|
5月前
|
人工智能 机器人 Serverless
安诺机器人 X 阿里云函数计算 AI 咖啡印花解决方案
当云计算遇见具身智能,AI咖啡开启零售新体验。用户通过手机生成个性化图像,云端AI快速渲染,机器人精准复刻于咖啡奶泡之上,90秒内完成一杯可饮用的艺术品。该方案融合阿里云FunctionAI生图能力与安诺机器人高精度执行系统,实现AIGC创意到实体呈现的闭环,为线下零售提供低成本、高互动、易部署的智能化升级路径,已在商场、机场、展馆等场景落地应用。
安诺机器人 X 阿里云函数计算 AI 咖啡印花解决方案
|
5月前
|
机器学习/深度学习 人工智能 机器人
AI Compass前沿速览:Nano Bananary、MCP Registry、通义DeepResearch 、VoxCPM、InternVLA·M1具身机器人
AI Compass前沿速览:Nano Bananary、MCP Registry、通义DeepResearch 、VoxCPM、InternVLA·M1具身机器人
|
5月前
|
人工智能 Java 机器人
基于Spring AI Alibaba + Spring Boot + Ollama搭建本地AI对话机器人API
Spring AI Alibaba集成Ollama,基于Java构建本地大模型应用,支持流式对话、knife4j接口可视化,实现高隐私、免API密钥的离线AI服务。
4369 2
基于Spring AI Alibaba + Spring Boot + Ollama搭建本地AI对话机器人API
人工智能 安全 Ubuntu
1240 0
|
6月前
|
人工智能 运维 Go
Coze与Dify深度对比:AI应用开发最佳利器的选择指南
Coze与Dify两大开源AI平台各有特色:Dify采用Python一体化架构,适合快速开发部署,社区成熟;Coze基于Go微服务设计,扩展灵活但部署复杂。选择需结合团队技术栈,Python系选Dify追求效率,Go系选Coze注重定制。两者都能显著降低AI应用开发门槛。
|
6月前
|
人工智能 运维 Go
Coze与Dify全面对比:为你的AI应用开发选择最佳利器
在AI技术迅猛发展的当下,Coze与Dify作为两大热门开源AI开发平台,各具特色。本文从架构设计、技术栈、功能对比、部署运维等多个维度深入解析两者差异,助你根据团队需求和技术背景做出最优选型决策,提升开发效率与应用性能。
|
6月前
|
人工智能 监控 JavaScript
从零开始学MCP(4) | 连接 MCP 客户端:从聊天机器人到智能体
本指南详解2025年如何打通Claude、Cursor及自定义客户端,构建企业级AI智能体系统。涵盖MCP双向通信架构、主流客户端连接配置、智能体系统实战、安全认证、性能优化及部署方案,助你掌握下一代AI应用核心技术。
|
6月前
|
数据采集 人工智能 算法
面向AI应用开发的开源能源管理系统
人工智能在能源管理中发挥关键作用,通过优化资源分配、智能消费管理、精准监测预测以及改善客户体验等多方面推动行业转型。MyEMS作为重要工具,基于Python语言集成AI技术,实现数据采集处理、负荷预测、能源优化控制、故障诊断预警及可视化展示等功能,提供全面智能化解决方案,助力可持续发展与能源效率提升。
182 5
|
6月前
|
人工智能 自然语言处理 前端开发
牛x,这也许是Coze(字节)平替,AIFlowy:企业级AI应用开发平台
AIFlowy 是一个基于 Java 的企业级开源 AI 应用开发平台,专为中国 toB 场景打造。它提供可视化 AI 工作流编排、大模型配置与市场、RAG 知识库、Bot 应用、素材中心及系统管理模块,帮助企业快速构建和部署 AI 应用。平台支持多样模型接入、复杂流程组装、素材生成及系统治理,适用于智能客服、知识运营、营销素材生产等场景。技术栈成熟,本土化支持良好,具备完整的开发、部署和管理能力,是企业级 AI 落地的理想选择。
650 0

热门文章

最新文章