Deepseek v4发布了一个多星期了,我们来梳理、对比一下市面上主流的agentic编程工具与Deepseek v4的适配情况。
Deepseek v4和kimi 2.6一样,要是LLM模型吐出的某条message包含有tool_call,则下次这条消息作为上下文后续回传给deepseek的时候,deepseek要求这条消息带上reasoning_content字段,不携带的话,deepseek会报错导致编程工具无法正常工作。Deepseek官方对此的介绍可阅读此文。
理论上,针对deepseek的这个情况,所有编程工具必须得主动适配deepseek。但有些编程工具的适配进度并不乐观。
知名博主karminski-牙医对此事项进行了详细的测试,发现此问题很致命,而且必复现。

各家对比
1.1 Claude Code
要在Claude Code中使用deepseek v4,你有两种接入方法。
方法1:通过Claude Code环境变量传入deepseek v4的api-key和baseUrl信息,这是deepseek 官方的推荐方法。
这种方法有一个问题,除了使用Claude code内置的官方模型之外,你只能使用通过环境变量配置的那个第三方的LLM模型。例如你的环境变量用来配置deepseek了,那你是没法再在claude code中使用GLM 5.1模型了。甚至你无法在claude code内切换deepseek v4 flash 和 v4 pro。这种方法的优点是不会遇到reasoning_content missing的问题。
方法2:使用cc-switch接入deepseek v4
作者于2026.5.2号测试claude code + cc-switch + deepseek v4模型,但会遇到reasoning_content问题,测试没通过。这是cc-switch 的reasoning_content问题的issue。
1.2 GitHub Copilot
copilot要在vscode内使用,且要自备DeepSeek API Key。配置方法:打开命令面板(Cmd+Shift+P / Ctrl+Shift+P),执行 DeepSeek: Set API Key 并粘贴你的 Key。作者于2026.5.3号在vscode中体验了一下Copilot + DeepSeek v4 flash,整体算流畅,但会遇到reasoning_content问题,测试没通过。
1.3 Langcli
Langcli是一个基于Claude code泄漏代码进行二次开发的开源编程cli工具,而且提供zed的ACP agent支持。100%兼容claude code,且与LangRouter云端深度整合。
npm i -g langcli-com 安装之后,执行langcli启动,输入LangRouter的api-key 即可立刻使用deepseek v4模型,而且集成了web搜索功能,不需要其它的api-key。
作者使用这个软件重构了一个前端代码,体验非常流畅,用法与claude code没区别,也没遇到reasoning_content问题。
此外,Langcli可以一键切换LangRouter生态的其它模型,例如GLM 5.1,Kimi 2.6 或者 Claude opus 4.6等,也可以接本地的Ollam模型。
1.4 OpenCode
在deepseek v4发布当天,作者使用OpenCode + deepseek v4来编程,遇到reasoning_content报错,强行终止了编程工作,只能改换别的编程工具。根据github issue的描述,openCode还没解决reasoning_content 问题。这肯定会严重影响使用体验,希望opencode加快适配进度。
1.5 deepseek-tui
这是2026.5.2号的新开源项目,根据描述,这个编程工具是专门为deepseek v4模型而准备。类型Gemini cli专用于谷歌的gemini模型那样的。
作者下载安装了deepseek-tui,发现其chat功能是基本可用的,但/help和其它一大堆命令都还不能用,太新了,暂且不做深入调研。
总结
综上所述,
如果你已经安装了Claude Code,你可以通过deepseek官方的指导方法 来使用deepseek v4模型。
如果你希望少折腾,又期望与claude code一样的体验效果,那Langcli是一个选择。
如果你是opencode的信徒,那需要你催促他们的开发团队尽快解决。