手把手教你把 Gemini CLI 塞进 IntelliJ IDEA:ACP 集成指南

简介: ACP(Agent Client Protocol)让Gemini CLI无缝入驻IDEA:无需切换窗口,直接在AI Assistant中@Gemini,即可理解项目、改代码、执行命令。四步配置(装CLI→查路径→写acp.json→重启IDE),支持项目感知与终端联动,开发效率跃升!

🎯 先说人话:这玩意儿能干啥?

想象一下这个场景:

你正在 IDEA 里疯狂敲代码,突然卡壳了。以前你得:切终端 → 打开 Gemini CLI → 复制代码 → 粘贴 → 等回复 → 再切回 IDEA。
现在?直接在 AI Assistant 聊天框里@Gemini,它就能看懂你的项目、帮你改代码、甚至跑终端命令!✨

这就是 Agent Client Protocol (ACP) 的魔法:让外部 AI 代理(比如 Gemini CLI)直接"住进"你的 IDE,无缝协作。


📋 前置条件(别跳过,否则踩坑别怪我)

要求 说明 检查命令
IntelliJ IDEA 2025.3 或更新版本(其他 JetBrains 全家桶也行) Help → About
Node.js 建议 20+ 版本,Gemini CLI 的"粮食" node --version
Gemini CLI 主角登场,必须先装好 gemini --version

🔧 四步走,集成搞定!

Step 1️⃣:安装 Gemini CLI(如果还没装)

npm install -g @google/gemini-cli

装完验货:

gemini --version
# 看到版本号?恭喜,第一步拿下!✅

💡 小贴士:如果权限报错,试试加 sudo(Mac/Linux)或用管理员身份运行终端(Windows)。


Step 2️⃣:找到 gemini 可执行文件的"真实住址"

ACP 配置需要绝对路径,不能玩"我以为你知道"的游戏。

🍎 macOS / 🐧 Linux 用户:

which gemini
# 示例输出:/Users/yourname/.nvm/versions/node/v22.16.0/bin/gemini

🪟 Windows 用户:

where gemini
# 示例输出:C:\Program Files\nodejs\gemini.cmd

⚠️ 重点:把这个路径复制好,马上要用!如果用 nvm,确保路径指向当前激活的 Node 版本,不然 IDEA 会一脸懵:"这文件呢?"


Step 3️⃣:配置 ACP 的"户口本" —— acp.json

JetBrains IDE 会去固定位置找这个配置文件:

系统 文件路径
macOS / Linux ~/.jetbrains/acp.json
Windows %USERPROFILE%\.jetbrains\acp.json

新建或编辑文件,填入以下内容(记得替换 command 里的路径!):

{
   
  "agent_servers": {
   
    "Gemini CLI": {
   
      "command": "/你的/实际/路径/gemini",
      "args": [
        "--experimental-acp"
      ],
      "use_idea_mcp": true,
      "use_custom_mcp": true
    }
  }
}

🔍 配置项逐行解读:

字段 作用 为什么重要
"Gemini CLI" 在 IDEA 里显示的名字 随便起,但建议别叫"那个谁"😅
"command" gemini 可执行文件路径 填错=找不到人,直接罢工
"args" 启动参数 --experimental-acp 是关键!没它 Gemini 会以为你要开终端聊天
"use_idea_mcp": true 允许访问 IDEA 内置 MCP 服务 ✨核心功能!让 Gemini 能读你的项目结构、打开的文件
"use_custom_mcp": true 支持自定义 MCP 服务 扩展玩法,比如连数据库、调用外部 API

🤔 深度思考:为什么叫 experimental
因为 ACP 协议还在演进中,未来可能有 breaking changes。生产环境使用建议先在小项目试水,别一上来就让它重构核心模块(血泪教训预警⚠️)。


Step 4️⃣:重启 IDEA,召唤 Gemini!

  1. 重启 IntelliJ IDEA(配置生效的仪式感)
  2. 打开 AI Assistant 面板(通常在右侧工具栏)
  3. 找到 Agent 选择器(下拉菜单或 更多按钮)
  4. 选择 "Gemini CLI"

image.png

🎉 看到聊天框里出现 Gemini CLI 标识?恭喜,集成成功!


📦 附:一键配置脚本(懒人福利)

macOS / Linux 用户,复制粘贴这条命令,自动创建 acp.json(记得先改路径!):

mkdir -p ~/.jetbrains && cat > ~/.jetbrains/acp.json << 'EOF'
{
  "agent_servers": {
    "Gemini CLI": {
      "command": "$(which gemini)",
      "args": ["--experimental-acp"],
      "use_idea_mcp": true,
      "use_custom_mcp": true
    }
  }
}
EOF

相关文章
|
11天前
|
人工智能 JavaScript Ubuntu
5分钟上手龙虾AI!OpenClaw部署(阿里云+本地)+ 免费多模型配置保姆级教程(MiniMax、Claude、阿里云百炼)
OpenClaw(昵称“龙虾AI”)作为2026年热门的开源个人AI助手,由PSPDFKit创始人Peter Steinberger开发,核心优势在于“真正执行任务”——不仅能聊天互动,还能自动处理邮件、管理日程、订机票、写代码等,且所有数据本地处理,隐私完全可控。它支持接入MiniMax、Claude、GPT等多类大模型,兼容微信、Telegram、飞书等主流聊天工具,搭配100+可扩展技能,成为兼顾实用性与隐私性的AI工具首选。
18860 103
|
4天前
|
人工智能 安全 Linux
【OpenClaw保姆级图文教程】阿里云/本地部署集成模型Ollama/Qwen3.5/百炼 API 步骤流程及避坑指南
2026年,AI代理工具的部署逻辑已从“单一云端依赖”转向“云端+本地双轨模式”。OpenClaw(曾用名Clawdbot)作为开源AI代理框架,既支持对接阿里云百炼等云端免费API,也能通过Ollama部署本地大模型,完美解决两类核心需求:一是担心云端API泄露核心数据的隐私安全诉求;二是频繁调用导致token消耗过高的成本控制需求。
3752 5
|
6天前
|
人工智能 安全 API
OpenClaw“小龙虾”进阶保姆级攻略!阿里云/本地部署+百炼API配置+4种Skills安装方法
很多用户成功部署OpenClaw(昵称“小龙虾”)后,都会陷入“看似能用却不好用”的困境——默认状态下的OpenClaw更像一个聊天机器人,缺乏连接外部工具、执行实际任务的能力。而Skills(技能插件)作为OpenClaw的“动手能力核心”,正是打破这一局限的关键:装对Skills,它能帮你自动化处理流程、检索全网资源、管理平台账号,真正变身“能做事的AI管家”。
4750 7
|
8天前
|
人工智能 安全 前端开发
Team 版 OpenClaw:HiClaw 开源,5 分钟完成本地安装
HiClaw 基于 OpenClaw、Higress AI Gateway、Element IM 客户端+Tuwunel IM 服务器(均基于 Matrix 实时通信协议)、MinIO 共享文件系统打造。
7440 5
|
7天前
|
人工智能 API 网络安全
Mac mini × OpenClaw 保姆级配置教程(附阿里云/本地部署OpenClaw配置百炼API图文指南)
Mac mini凭借小巧机身、低功耗和稳定性能,成为OpenClaw(原Clawdbot)本地部署的首选设备——既能作为家用AI节点实现7×24小时运行,又能通过本地存储保障数据隐私,搭配阿里云部署方案,可灵活满足“长期值守”与“隐私优先”的双重需求。对新手而言,无需复杂命令行操作,无需专业技术储备,按本文步骤复制粘贴代码,即可完成OpenClaw的全流程配置,同时接入阿里云百炼API,解锁更强的AI任务执行能力。
6009 1
|
16天前
|
人工智能 自然语言处理 JavaScript
2026年Windows+Ollama本地部署OpenClaw保姆级教程:本地AI Agent+阿里云上快速搭建
2026年OpenClaw凭借本地部署、私有化运行的特性,成为打造个人智能体的核心工具,而Ollama作为轻量级本地大模型管理工具,能让OpenClaw摆脱对云端大模型的依赖,实现**本地推理、数据不泄露、全流程私有化**的智能体验。本文基于Windows 11系统,从硬件环境准备、Ollama安装与模型定制、OpenClaw部署配置、技能扩展到常见问题排查,打造保姆级本地部署教程,同时补充阿里云OpenClaw(Clawdbot)快速部署步骤,兼顾本地私有化需求与云端7×24小时运行需求,文中所有代码命令均可直接复制执行,确保零基础用户也能快速搭建属于自己的本地智能体。
18476 116
|
10天前
|
人工智能 JSON API
保姆级教程:OpenClaw阿里云及本地部署+模型切换流程+GLM5.0/Seedance2.0/MiniMax M2.5接入指南
2026年,GLM5.0、Seedance2.0、MiniMax M2.5等旗舰大模型相继发布,凭借出色的性能与极具竞争力的成本优势,成为AI工具的热门选择。OpenClaw作为灵活的AI Agent平台,支持无缝接入这些主流模型,通过简单配置即可实现“永久切换、快速切换、主备切换”三种模式,让不同场景下的任务执行更高效、更稳定。
6499 4