AGUVIS:指导模型实现 GUI 自动化训练框架,结合视觉-语言模型进行训练,实现跨平台自主 GUI 交互

简介: AGUVIS 是香港大学与 Salesforce 联合推出的纯视觉 GUI 自动化框架,能够在多种平台上实现自主 GUI 交互,结合显式规划和推理,提升复杂数字环境中的导航和交互能力。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

原文链接:https://mp.weixin.qq.com/s/jVlCvOHDyh67cOnqawLdOw


🚀 快速阅读

  1. 功能:跨平台自主 GUI 交互,结合自然语言指令与视觉元素关联。
  2. 技术:采用纯视觉框架和统一动作空间,结合视觉-语言模型进行训练。
  3. 应用:适用于自动化测试、虚拟助手、业务流程自动化等场景。

正文(附运行示例)

AGUVIS 是什么

公众号: 蚝油菜花 - aguvis

AGUVIS 是香港大学与 Salesforce 联合推出的纯视觉 GUI 自动化框架,专为自主 GUI 智能体设计,能够在各种平台(如网页、桌面、移动设备)上操作。该框架基于图像观察和自然语言指令与视觉元素的关联,采用一致的动作空间实现跨平台泛化。

AGUVIS 结合显式规划和推理,增强代理在复杂数字环境中的自主导航和交互能力。通过大规模数据集和两阶段训练流程,AGUVIS 在离线和在线场景中超越了现有方法的性能,成为首个不依赖外部闭源模型独立完成任务的纯视觉 GUI 代理。

AGUVIS 的主要功能

  • 跨平台自主 GUI 交互:在不同平台(如网站、桌面和移动设备)上自主执行 GUI 任务。
  • 图像观察与自然语言指令关联:将自然语言指令映射到视觉界面元素,实现基于图像的交互。
  • 显式规划与推理:集成规划和推理能力,让代理能够分析环境并生成有效的操作步骤。
  • 大规模数据集构建:创建包含多模态推理和基础的大规模 GUI 代理轨迹数据集。

AGUVIS 的技术原理

  • 纯视觉框架:采用纯视觉方法,将界面观察统一为图像,将指令基础到图像坐标,提高跨环境的泛化能力。
  • 统一动作空间:用标准化的动作空间和插件系统,在不同平台间进行一致的学习与交互。
  • 视觉-语言模型(VLM):VLM 作为基础,如 Qwen2-VL,处理任意分辨率的高分辨率图像,并动态转换为视觉令牌。
  • 两阶段训练范式
    • 第一阶段:基础训练:专注于使模型理解和与单个 GUI 截图中的对象交互。
    • 第二阶段:规划与推理训练:在基础训练的基础上,引入更复杂的决策制定和推理过程,基于多样化的代理轨迹数据训练模型。
  • 内省式独白(Inner Monologue):在训练中生成详细的内省式独白,包含观察描述、思考和低级动作指令,模拟代理的思考过程、提升其规划能力。
  • 插件系统:为不能直接映射到现有动作空间的动作提供灵活性,让模型能够适应新环境和任务。

如何运行 AGUVIS

安装

  1. 克隆仓库:

    git clone git@github.com:xlang-ai/aguvis.git
    cd aguvis
    
  2. 创建并激活 conda 环境:

    conda create -n aguvis python=3.10
    conda activate aguvis
    
  3. 安装 PyTorch 和依赖:

    conda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.1 -c pytorch -c nvidia
    pip install -e .
    

数据准备

  1. 第一阶段:基础训练

  2. 第二阶段:规划与推理训练

训练

  1. 配置训练设置:

    • 打开 scripts/train.sh
    • 设置 SFT_TASK 变量以指定训练阶段。
  2. 开始训练:

    bash scripts/train.sh
    

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
人工智能 Kubernetes jenkins
容器化AI模型的持续集成与持续交付(CI/CD):自动化模型更新与部署
在前几篇文章中,我们探讨了容器化AI模型的部署、监控、弹性伸缩及安全防护。为加速模型迭代以适应新数据和业务需求,需实现容器化AI模型的持续集成与持续交付(CI/CD)。CI/CD通过自动化构建、测试和部署流程,提高模型更新速度和质量,降低部署风险,增强团队协作。使用Jenkins和Kubernetes可构建高效CI/CD流水线,自动化模型开发和部署,确保环境一致性并提升整体效率。
|
人工智能 自然语言处理 API
Proxy Lite:仅3B参数的开源视觉模型!快速实现网页自动化,支持在消费级GPU上运行
Proxy Lite 是一款开源的轻量级视觉语言模型,支持自动化网页任务,能够像人类一样操作浏览器,完成网页交互、数据抓取、表单填写等重复性工作,显著降低自动化成本。
902 11
Proxy Lite:仅3B参数的开源视觉模型!快速实现网页自动化,支持在消费级GPU上运行
|
人工智能 自然语言处理 数据可视化
autoMate:无需视觉模型!用DeepSeek-V3/R1就能实现自动化操作电脑,支持任何可视化界面
autoMate是一款基于AI和RPA的本地自动化工具,通过自然语言实现复杂任务的自动化操作,支持本地部署,确保数据安全和隐私,适合需要高效处理重复性工作的用户。
819 1
autoMate:无需视觉模型!用DeepSeek-V3/R1就能实现自动化操作电脑,支持任何可视化界面
|
人工智能 自然语言处理 API
UI-TARS:字节跳动开源专注于多平台 GUI 自动化交互的视觉语言模型
UI-TARS 是字节跳动推出的新一代原生图形用户界面(GUI)代理模型,支持跨平台自动化交互,具备强大的感知、推理、行动和记忆能力,能够通过自然语言指令完成复杂任务。
3504 16
UI-TARS:字节跳动开源专注于多平台 GUI 自动化交互的视觉语言模型
|
XML 人工智能 文字识别
Mobile-Agent:通过视觉感知实现自动化手机操作,支持多应用跨平台
Mobile-Agent 是一款基于多模态大语言模型的智能代理,能够通过视觉感知自主完成复杂的移动设备操作任务,支持跨应用操作和纯视觉解决方案。
5565 10
Mobile-Agent:通过视觉感知实现自动化手机操作,支持多应用跨平台
|
5月前
|
数据采集 运维 监控
爬虫与自动化技术深度解析:从数据采集到智能运维的完整实战指南
本文系统解析爬虫与自动化核心技术,涵盖HTTP请求、数据解析、分布式架构及反爬策略,结合Scrapy、Selenium等框架实战,助力构建高效、稳定、合规的数据采集系统。
986 62
爬虫与自动化技术深度解析:从数据采集到智能运维的完整实战指南
|
6月前
|
运维 Linux 网络安全
自动化真能省钱?聊聊运维自动化如何帮企业优化IT成本
自动化真能省钱?聊聊运维自动化如何帮企业优化IT成本
206 4
|
运维 Linux Apache
,自动化运维成为现代IT基础设施的关键部分。Puppet是一款强大的自动化运维工具
【10月更文挑战第7天】随着云计算和容器化技术的发展,自动化运维成为现代IT基础设施的关键部分。Puppet是一款强大的自动化运维工具,通过定义资源状态和关系,确保系统始终处于期望配置状态。本文介绍Puppet的基本概念、安装配置及使用示例,帮助读者快速掌握Puppet,实现高效自动化运维。
379 4
|
8月前
|
运维 监控 安全
从实践到自动化:现代运维管理的转型与挑战
本文探讨了现代运维管理从传统人工模式向自动化转型的必要性与路径,分析了传统运维的痛点,如效率低、响应慢、依赖经验等问题,并介绍了自动化运维在提升效率、降低成本、增强系统稳定性与安全性方面的优势。结合技术工具与实践案例,文章展示了企业如何通过自动化实现运维升级,推动数字化转型,提升业务竞争力。

热门文章

最新文章