Open Interpreter:AI 赋能终端!在终端中对话AI模型进行编程,通过运行代码来完成各种计算机操作任务

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
简介: Open Interpreter 是一个让语言模型运行代码的强大工具,提供了一个类似 ChatGPT 的界面,支持多种编程语言和丰富的功能。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

  • 功能:支持 Python、JavaScript、Shell 等多种编程语言。
  • 安全性:在执行代码前会请求用户确认。
  • 灵活性:支持自定义系统消息和更换语言模型。

正文(附运行示例)

Open Interpreter 是什么

Open Interpreter.png

Open Interpreter 是一个让语言模型运行代码的工具。通过一个类似 ChatGPT 的界面,用户可以在终端中与 Open Interpreter 互动,执行各种编程任务。这为用户提供了一个自然语言接口,使其能够轻松地利用计算机的通用能力。

例如,用户可以通过简单的命令来创建和编辑照片、视频、PDF 文件,控制 Chrome 浏览器进行研究,绘制、清理和分析大数据集等。

Open Interpreter 的主要功能

  • 支持多种编程语言:Open Interpreter 支持 Python、JavaScript、Shell 等多种编程语言。
  • 安全执行代码:在执行代码前,Open Interpreter 会请求用户确认,确保操作的安全性。
  • 灵活的配置选项:用户可以自定义系统消息、更换语言模型,并调整其他设置以满足特定需求。

Open Interpreter 的技术原理

  • 函数调用:Open Interpreter 使用支持函数调用的语言模型,并通过 exec() 函数执行代码。
  • 流式处理:模型的消息、代码和系统的输出会以 Markdown 格式流式传输到终端。
  • 本地模式:Open Interpreter 可以在本地环境中运行,充分利用用户的计算资源和网络连接。

如何运行 Open Interpreter

安装

首先,通过 pip 安装 Open Interpreter:

pip install open-interpreter

如果需要更多功能,可以安装可选依赖项:

  • Local Mode 依赖项:
    pip install open-interpreter[local]
    
  • OS Mode 依赖项:
    pip install open-interpreter[os]
    
  • Safe Mode 依赖项:
    pip install open-interpreter[safe]
    

终端使用

安装完成后,只需在终端中运行 interpreter 即可启动交互界面:

interpreter

Python 使用

也可以在 Python 程序中使用 Open Interpreter:

from interpreter import interpreter

# 执行单个命令
interpreter.chat("Plot AAPL and META's normalized stock prices")

# 启动交互聊天
interpreter.chat()

实例代码

以下是一个简单的示例,展示如何使用 Open Interpreter 在 Python 中绘制股票价格图:

from interpreter import interpreter

# 绘制 AAPL 和 META 的归一化股票价格
interpreter.chat("Plot AAPL and META's normalized stock prices")

上述代码会启动 Open Interpreter 并执行绘图命令,生成的结果将显示在终端中。

本地模式

Open Interpreter 还支持在本地环境中运行,利用本地模型和计算资源:

终端使用

使用本地模型提供商时,可以运行以下命令:

interpreter --local

选择所需的本地模型提供商,例如 Ollama、Llamafile、Jan 或 LM Studio。如果使用其他未列出的提供商,可以通过设置 --api_base--model 参数来指定:

interpreter --api_base "http://localhost:11434" --model ollama/codestral

Python 使用

在 Python 中使用本地模型时,需要设置相关参数:

from interpreter import interpreter

interpreter.offline = True
interpreter.llm.model = "ollama/codestral"
interpreter.llm.api_base = "http://localhost:11434"

interpreter.chat("How many files are on my desktop?")

配置文件

Open Interpreter 支持使用配置文件来自定义默认行为。配置文件可以是 YAML 文件或 Python 文件:

YAML 配置文件

llm:
model: "gpt-4-o"
temperature: 0

# 计算机设置
computer:
import_computer_api: True # 给 Open Interpreter 提供有用的 Computer API 设计

# 自定义指令
custom_instructions: ""  # 将附加到系统消息

# 通用配置
auto_run: False  # 如果为 True,代码将无需确认即可运行
offline: False  # 如果为 True,将禁用一些在线功能,如检查更新

version: 0.2.5 # 配置文件版本(不要修改)

Python 配置文件

from interpreter import interpreter

interpreter.os = True
interpreter.llm.supports_vision = True

interpreter.llm.model = "gpt-4o"
interpreter.llm.supports_functions = True
interpreter.llm.context_window = 110000
interpreter.llm.max_tokens = 4096
interpreter.auto_run = True
interpreter.loop = True

安全模式

为了降低风险,Open Interpreter 提供了实验性的安全模式:

from interpreter import interpreter

interpreter.safe_mode = True

无安装使用

如果不希望在本地环境中配置,可以使用 GitHub Codespaces:

  1. 在 GitHub 页面上按 , 键创建一个代码空间。
  2. 创建后,你会得到一个预装了 Open Interpreter 的云虚拟机环境。
  3. 直接开始与 Open Interpreter 交互。

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
1月前
|
人工智能 IDE Java
AI Coding实践:CodeFuse + prompt 从系分到代码
在蚂蚁国际信贷业务系统建设过程中,技术团队始终面临双重考验:一方面需应对日益加速的需求迭代周期,满足严苛的代码质量规范与金融安全合规要求;另一方面,跨地域研发团队的协同效率与代码标准统一性,在传统开发模式下逐渐显现瓶颈。为突破效率制约、提升交付质量,我们积极探索人工智能辅助代码生成技术(AI Coding)的应用实践。本文基于蚂蚁国际信贷技术团队近期的实际项目经验,梳理AI辅助开发在金融级系统快速迭代场景中的实施要点并分享阶段性实践心得。
358 25
AI Coding实践:CodeFuse + prompt 从系分到代码
|
1月前
|
人工智能 机器人 测试技术
AI写的代码为何金玉其外败絮其中
本文分析AI编码看着好看其实很烂的现象、原因,探索行之有效的的解决方案。并从理论上延伸到如何更好的与AI协作的方式上。
73 3
|
1月前
|
人工智能 安全 开发工具
C3仓库AI代码门禁通用实践:基于Qwen3-Coder+RAG的代码评审
本文介绍基于Qwen3-Coder、RAG与Iflow在C3级代码仓库落地LLM代码评审的实践,实现AI辅助人工评审。通过CI流水线自动触发,结合私域知识库与生产代码同仓管理,已成功拦截数十次高危缺陷,显著提升评审效率与质量,具备向各类代码门禁平台复用推广的价值。(239字)
375 24
|
1月前
|
数据采集 人工智能 JSON
Prompt 工程实战:如何让 AI 生成高质量的 aiohttp 异步爬虫代码
Prompt 工程实战:如何让 AI 生成高质量的 aiohttp 异步爬虫代码
|
1月前
|
人工智能 JSON 安全
Claude Code插件系统:重塑AI辅助编程的工作流
Anthropic为Claude Code推出插件系统与市场,支持斜杠命令、子代理、MCP服务器等功能模块,实现工作流自动化与团队协作标准化。开发者可封装常用工具或知识为插件,一键共享复用,构建个性化AI编程环境,推动AI助手从工具迈向生态化平台。
351 1
|
1月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
398 29
|
1月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
454 28
|
2月前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
785 42

热门文章

最新文章