Lux 上手指南:让 AI 直接操作你的电脑

简介: Lux 是一款能直接操作计算机的AI基础模型,通过视觉理解与动作预测,实现自然语言指令下的自动化任务。它无需依赖API,可像真人一样点击、输入、滚动,完成浏览器操作等复杂工作,准确率超越主流模型,是迈向“意图即执行”的重要突破。(238字)

Lux 要是一个专门用于计算机操作的基础模型。和那些只会生成文字的 AI 不同,Lux 能看懂屏幕内容并理解自然语言描述的任务目标,然后实时操控计算机完成工作。

比如说你对电脑说"打开浏览器,访问 xxx",然后它就真的执行了:鼠标移动、图标点击、网址输入、页面滚动,整个过程和真人操作没什么区别。

Lux 的技术实现

Lux 不依赖 API 接口所以能在任何应用中工作:浏览器、编辑器、邮件客户端、表格软件都行。它的核心技术是计算机视觉配合动作预测

  • 捕获屏幕截图
  • 解析 UI 组件
  • 预测下一步操作(点击、输入、滚动)
  • 循环执行直到任务结束

在 300 个实际场景的测试中,Lux 的表现超过了 Google Gemini CUA、OpenAI Operator 和 Anthropic Claude。

工作机制

Lux 运行在一个持续的动作-观察循环里:

 目标 → 视觉分析 → 执行动作 → 获取反馈 → 循环

用户用自然语言下达指令,比如:"打开浏览器并打开 xxx",然后Lux 会截取当前屏幕画面并根据截图内容判断下一步该做什么:

  • 点击某个按钮
  • 输入文字
  • 移动光标
  • 滚动页面
  • 触发快捷键

然后执行相应的动作并捕获新的屏幕状态。

这个循环会一直跑下去直到任务完成,可以把它想象成一个坐在你电脑前干活的 AI 助手。

环境配置

在使用 Lux 之前需要完成安装和权限设置。

步骤 1:权限授予

Lux 需要的权限和普通自动化工具一样:屏幕录制权限辅助功能权限

执行命令:

 oagi agent permission

macOS 系统系统会弹出权限请求:

  • 辅助功能
  • 屏幕录制

系统设置 — 隐私与安全 里批准这些权限,完成后重启终端。

步骤 2:API 认证

打开 agiopen生成新的 API 密钥。新注册用户有 $10 免费额度,够跑几十次代理任务了。

配置环境变量

 export OAGI_API_KEY=sk-...  
 export OAGI_BASE_URL=https://api.agiopen.org

步骤 3:桌面环境准备

Lux 直接读取屏幕内容,所以工作区越干净UI 元素识别就越准确。

推荐配置如下

  • 单个大窗口的浏览器
  • 空白起始页
  • 桌面整洁
  • 背景简洁

不推荐的配置

  • 窗口又小又乱
  • 多个程序互相遮挡
  • 复杂的桌面壁纸

环境混乱的话Lux 可能会重试操作或者点错位置。

步骤 4:第一次运行

 oagi agent run "Go to https://agiopen.org" --model "lux-actor-1"

你会看到鼠标自己动、键盘自己敲字,整个过程完全自动化。

实际案例

假设要让 Lux 完成这样一个任务:

启动浏览器,搜索 "OpenAGI Lux model documentation" 浏览搜索结果

命令是:

 oagi agent run "Open a browser, search for OpenAGI Lux model documentation, and scroll through the results." --model "lux-actor-1"

Lux 会依次:

  1. 识别浏览器图标
  2. 点击启动
  3. 找到搜索框
  4. 输入关键词
  5. 按回车
  6. 检测页面可滚动区域
  7. 逐步向下翻页

全程靠视觉理解和动作预测完成。

总结

Lux 不只是个模型,它代表了一个方向:让计算机能直接响应人的意图,而不是通过一系列点击来间接表达。

如果你曾经希望电脑能"替你把事情做了"Lux 把这个想法变成了现实。

https://avoid.overfit.cn/post/084c91d2d2df493f8daa93b25268a6c8

作者:Civil Learning

目录
相关文章
|
1月前
|
机器学习/深度学习 人工智能 并行计算
DeepSeek 开年王炸:mHC 架构用流形约束重构 ResNet 残差连接
大过节DeepSeek在arXiv发布mHC新论文,挑战Transformer残差连接范式。通过流形约束(谱范数+双重随机矩阵),在保持高带宽信息通路的同时恢复恒等映射稳定性,解决深层网络梯度传播难题,理论扎实且兼顾系统效率,或成“后Transformer时代”架构新方向。
456 7
DeepSeek 开年王炸:mHC 架构用流形约束重构 ResNet 残差连接
|
2月前
|
机器学习/深度学习 人工智能 算法
技术人视角:传统产品经理如何系统性转型AI产品经理
AI时代重塑产品格局,AI产品经理需兼具技术理解、业务洞察与用户体验。本文系统梳理从认知升级到实战落地的转型路径,助力传统PM或技术人掌握AI产品方法论,避开常见误区,逐步成长为驾驭智能的“系统架构师”。
614 13
|
3月前
|
存储 机器学习/深度学习 人工智能
基于反馈循环的自我进化AI智能体:原理、架构与代码实现
自我进化智能体突破传统AI静态局限,通过“执行-反馈-调整”闭环,实现持续自主优化。它结合大模型与在线学习,利用多评分器反馈自动改进提示或参数,无需人工干预。适用于医疗、金融、编程等动态场景,推动AI迈向终身学习。
552 12
基于反馈循环的自我进化AI智能体:原理、架构与代码实现
|
1月前
|
机器学习/深度学习 自然语言处理 算法
从贝叶斯视角解读Transformer的内部几何:mHC的流形约束与大模型训练稳定性
大模型训练常因架构改动破坏内部贝叶斯几何结构,导致不稳定。研究表明,Transformer通过残差流、注意力与值表征在低维流形上实现类贝叶斯推理。mHC通过约束超连接保护这一几何结构,确保规模化下的训练稳定与推理一致性。
353 7
从贝叶斯视角解读Transformer的内部几何:mHC的流形约束与大模型训练稳定性
|
3月前
|
人工智能 缓存 安全
LangChain v1.0 中间件详解:彻底搞定 AI Agent 上下文控制
LangChain v1.0 引入中间件机制,系统化解决上下文管理难题。通过模块化中间件,实现输入预处理、敏感信息过滤、工具权限控制等,提升Agent在生产环境的稳定性与可维护性。
1144 5
LangChain v1.0 中间件详解:彻底搞定 AI Agent 上下文控制
|
3月前
|
人工智能 JSON 机器人
从零开始:用Python和Gemini 3四步搭建你自己的AI Agent
AI Agent并非玄学,核心仅为“循环 + 大模型 + 工具函数”。本文教你用Gemini 3从零搭建能读写文件、执行指令的命令行助手,拆解其“观察-思考-行动”循环机制,揭示智能体背后的简洁本质。
701 17
从零开始:用Python和Gemini 3四步搭建你自己的AI Agent
|
1月前
|
存储 人工智能 架构师
构建自己的AI编程助手:基于RAG的上下文感知实现方案
打造智能代码助手,远不止调用API。需构建专为代码设计的RAG系统:基于AST解析保障分块完整性,向量库实现语义检索,结合仓库地图提供全局结构,再通过推理链整合上下文。如此,AI才能真正理解代码,胜任重构、答疑等复杂任务,成为懂你项目的“资深工程师”。
134 7
构建自己的AI编程助手:基于RAG的上下文感知实现方案
|
2月前
|
人工智能 运维 安全
SOC 2.0 来了:不是加人加班,而是加“智能”!——智能化安全运营中心的建设之道
SOC 2.0 来了:不是加人加班,而是加“智能”!——智能化安全运营中心的建设之道
258 15
|
2月前
|
存储 缓存 并行计算
LMCache:基于KV缓存复用的LLM推理优化方案
LMCache推出KV缓存持久化方案,显著优化大模型推理首Token延迟(TTFT)。通过将KV缓存存储至GPU、CPU或磁盘,实现跨请求复用,支持任意位置文本匹配,与vLLM深度集成,多轮对话、RAG场景提速3-10倍,降低硬件压力,提升吞吐。开源支持Linux/NVIDIA,正拓展AMD及更多生态支持。
363 15
LMCache:基于KV缓存复用的LLM推理优化方案
|
24天前
|
机器学习/深度学习 移动开发 编解码
YOLO26 改进 - C2PSA | C2PSA融合MSLA多尺度线性注意力:并行多分支架构融合上下文语义,提升特征判别力 | Arxiv 2025
本文提出多尺度线性注意力机制MSLA,通过并行3×3/5×5/7×7/9×9深度卷积提取多尺度特征,结合低复杂度线性注意力(O(N)),兼顾细粒度局部细节与全局长程依赖。将其集成至YOLO26,构建C2PSA_MSLA模块,在医学图像分割与目标检测任务中显著提升性能、效率与鲁棒性。(239字)
YOLO26 改进 - C2PSA | C2PSA融合MSLA多尺度线性注意力:并行多分支架构融合上下文语义,提升特征判别力 | Arxiv 2025