❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!
🥦 微信公众号|搜一搜:蚝油菜花 🥦
🚀 快速阅读
- 功能:支持 Python、JavaScript、Shell 等多种编程语言。
- 安全性:在执行代码前会请求用户确认。
- 灵活性:支持自定义系统消息和更换语言模型。
正文(附运行示例)
Open Interpreter 是什么
Open Interpreter 是一个让语言模型运行代码的工具。通过一个类似 ChatGPT 的界面,用户可以在终端中与 Open Interpreter 互动,执行各种编程任务。这为用户提供了一个自然语言接口,使其能够轻松地利用计算机的通用能力。
例如,用户可以通过简单的命令来创建和编辑照片、视频、PDF 文件,控制 Chrome 浏览器进行研究,绘制、清理和分析大数据集等。
Open Interpreter 的主要功能
- 支持多种编程语言:Open Interpreter 支持 Python、JavaScript、Shell 等多种编程语言。
- 安全执行代码:在执行代码前,Open Interpreter 会请求用户确认,确保操作的安全性。
- 灵活的配置选项:用户可以自定义系统消息、更换语言模型,并调整其他设置以满足特定需求。
Open Interpreter 的技术原理
- 函数调用:Open Interpreter 使用支持函数调用的语言模型,并通过
exec()
函数执行代码。 - 流式处理:模型的消息、代码和系统的输出会以 Markdown 格式流式传输到终端。
- 本地模式:Open Interpreter 可以在本地环境中运行,充分利用用户的计算资源和网络连接。
如何运行 Open Interpreter
安装
首先,通过 pip
安装 Open Interpreter:
pip install open-interpreter
如果需要更多功能,可以安装可选依赖项:
- Local Mode 依赖项:
pip install open-interpreter[local]
- OS Mode 依赖项:
pip install open-interpreter[os]
- Safe Mode 依赖项:
pip install open-interpreter[safe]
终端使用
安装完成后,只需在终端中运行 interpreter
即可启动交互界面:
interpreter
Python 使用
也可以在 Python 程序中使用 Open Interpreter:
from interpreter import interpreter
# 执行单个命令
interpreter.chat("Plot AAPL and META's normalized stock prices")
# 启动交互聊天
interpreter.chat()
实例代码
以下是一个简单的示例,展示如何使用 Open Interpreter 在 Python 中绘制股票价格图:
from interpreter import interpreter
# 绘制 AAPL 和 META 的归一化股票价格
interpreter.chat("Plot AAPL and META's normalized stock prices")
上述代码会启动 Open Interpreter 并执行绘图命令,生成的结果将显示在终端中。
本地模式
Open Interpreter 还支持在本地环境中运行,利用本地模型和计算资源:
终端使用
使用本地模型提供商时,可以运行以下命令:
interpreter --local
选择所需的本地模型提供商,例如 Ollama、Llamafile、Jan 或 LM Studio。如果使用其他未列出的提供商,可以通过设置 --api_base
和 --model
参数来指定:
interpreter --api_base "http://localhost:11434" --model ollama/codestral
Python 使用
在 Python 中使用本地模型时,需要设置相关参数:
from interpreter import interpreter
interpreter.offline = True
interpreter.llm.model = "ollama/codestral"
interpreter.llm.api_base = "http://localhost:11434"
interpreter.chat("How many files are on my desktop?")
配置文件
Open Interpreter 支持使用配置文件来自定义默认行为。配置文件可以是 YAML 文件或 Python 文件:
YAML 配置文件
llm:
model: "gpt-4-o"
temperature: 0
# 计算机设置
computer:
import_computer_api: True # 给 Open Interpreter 提供有用的 Computer API 设计
# 自定义指令
custom_instructions: "" # 将附加到系统消息
# 通用配置
auto_run: False # 如果为 True,代码将无需确认即可运行
offline: False # 如果为 True,将禁用一些在线功能,如检查更新
version: 0.2.5 # 配置文件版本(不要修改)
Python 配置文件
from interpreter import interpreter
interpreter.os = True
interpreter.llm.supports_vision = True
interpreter.llm.model = "gpt-4o"
interpreter.llm.supports_functions = True
interpreter.llm.context_window = 110000
interpreter.llm.max_tokens = 4096
interpreter.auto_run = True
interpreter.loop = True
安全模式
为了降低风险,Open Interpreter 提供了实验性的安全模式:
from interpreter import interpreter
interpreter.safe_mode = True
无安装使用
如果不希望在本地环境中配置,可以使用 GitHub Codespaces:
- 在 GitHub 页面上按
,
键创建一个代码空间。 - 创建后,你会得到一个预装了 Open Interpreter 的云虚拟机环境。
- 直接开始与 Open Interpreter 交互。
资源
- 项目官网:https://docs.openinterpreter.com/
- GitHub 仓库:https://github.com/OpenInterpreter/open-interpreter
- 官方文档:https://docs.openinterpreter.com/getting-started/introduction
❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!
🥦 微信公众号|搜一搜:蚝油菜花 🥦