Claude Code + DeepSeek V4-Pro 真实评测:除了贵,没别的毛病

简介: JeecgBoot AI专题研究 把 Claude Code 接入 DeepSeek V4Pro,跑完 Skills —— OA 审批、大屏、报表、部署 5 大实战场景后的真实体验 ![](https://oscimg.oschina.net/oscnet/up608d34aeb6bafc47f

JeecgBoot AI专题研究 | 把 Claude Code 接入 DeepSeek V4-Pro,跑完 Skills —— OA 审批、大屏、报表、部署 5 大实战场景后的真实体验

一句话结论

花了一整天,拿 JeecgBoot 的 Skills 生态做了一轮完整实战——OA 审批流程自动搭建、积木 BI 大屏生成、钻取报表、自动化部署、文档修改——全部跑通。唯一的毛病:。但考虑到能力摆在那里,这笔钱花得值。


背景:为什么要替换掉原生 Claude?

最近 Claude 账号批量封禁的消息越来越密集。身边不少人的号说没就没,申诉基本石沉大海,重新注册还要担心下一次什么时候轮到自己——这是目前最让人焦虑的事。对一个每天重度依赖 Claude Code 的开发者来说,账号一旦挂掉,整个工作流直接瘫痪,手头项目的进度全盘打乱。

费用倒是其次。Opus 4.6 输入价格高达 $15 / 百万 tokens 确实不便宜,但相比"哪天早上打开电脑发现账号没了"的不确定感,这笔账还能算。

DeepSeek 刚好发布了 V4 系列预览版,包含 V4-Pro(1.6T 参数 / 49B 激活)和 V4-Flash(284B 参数 / 13B 激活),并且提供了兼容 Anthropic 协议的 API 端点——只需改一行配置,就能用 DeepSeek 驱动 Claude Code。账号稳定、计费透明,不用再为封号担惊受怕。

我花了三分钟配好,然后拿 JeecgBoot 的全套 Skills 做了一轮实战测试。


配置过程:1 分钟完成接入

核心配置非常简单,DeepSeek 提供了完整的 Anthropic API 兼容层:

{
   
  "env": {
   
    "ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "${DEEPSEEK_API_KEY}",
    "API_TIMEOUT_MS": "3000000",
    "ANTHROPIC_MODEL": "deepseek-v4-pro",
    "ANTHROPIC_SMALL_FAST_MODEL": "deepseek-v4-flash",
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "deepseek-v4-pro",
    "ANTHROPIC_DEFAULT_OPUS_MODEL": "deepseek-v4-pro",
    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "deepseek-v4-flash",
    "CLAUDE_CODE_SUBAGENT_MODEL": "deepseek-v4-pro",
    "CLAUDE_CODE_EFFORT_LEVEL": "max"
  },
  "model": "deepseek-v4-pro"
}

逻辑清晰:重量级任务走 V4-Pro,轻量任务走 V4-Flash。配置完启动,Claude Code 界面上直接显示 deepseek-v4-pro,问它"你是什么模型",回答干脆利落。


测试一:OA 审批流程自动搭建

测试目标:用 JeecgBoot 的 BPM Skills,让 AI 自动搭建一套 OA 审批流程。

指令下达后,模型快速调用了 JeecgBoot 的 BPM 流程设计 Skills,自动生成了审批流程图和对应的配置。

第一版流程图出来之后,我发现流程走向有点问题,直接告诉它哪里不对、要怎么改。几秒钟之后修正版出来了,改得很到位。

这类 BPM 流程配置任务,传统做法要手动拖画布、逐个配置节点,少说十几分钟。AI 直接出图 + 反馈修正,两轮搞定,效率提升非常明显。


测试二:积木 BI 大屏生成

测试目标:用积木 BI 的 Skills,自动生成一张数据可视化大屏。

生成的大屏效果出乎意料地好:

大屏出来后我发现有两个小问题需要修复。把截图发过去,描述了一下问题:

修复之后:

这里要特别说一句:虽然 DeepSeek V4-Pro 不识别图片(后面详细说这个坑),但它修大屏问题的时候完全没乱打一气——通过读取配置文件 + 领域知识推断,照样精准定位问题。服不服?反正我服了。


测试三:积木报表——钻取报表生成 + 秒改样式

测试目标:用积木报表的 Skills 生成钻取报表,并要求去掉表格颜色。

报表生成得很快,结构也正确。

接着让它去掉表格的颜色。秒改——这个响应速度比原生 Claude Code 还快。

改之前:

改之后:

对表格颜色这种纯配置项修改,V4-Pro 的反应极快,不需要深层推理,直接定位到配置字段然后修改,体验丝滑。


测试四:自动化部署

测试目标:用自动化部署 Skills 实现完整的前后端部署流程。这个任务比较复杂——前端是本地 SVN 更新、编译打包、上传服务器;后端走 Jenkins;还需要清 CDN 缓存、自动发部署日志邮件。

说实话,这任务一开始我没抱太大期望——环节太多了。但结果有点意外:前后端部署都没问题

整个流程跑下来,SVN 更新、npm build、scp 上传、Jenkins 触发、CDN 缓存清理、邮件通知——全部自动化串联成功。对日常运维来说,省掉的不只是时间,还有"半夜部署手抖敲错命令"的心理负担。


测试五:改文档——无感切换

中间穿插了一个日常高频操作:用 Claude Code 改项目文档。整个过程完全无感,如果不是终端上写着 deepseek-v4-pro,我甚至以为自己在用 Claude 原生模型。

改文档这类任务对 V4-Pro 来说属于"降维打击",速度快、理解准、输出干净。


🚨 巨坑预警:1M 上下文 ≠ 支持图片

测到一半,踩了个大坑。

DeepSeek V4-Pro 最亮眼的规格之一是 1,000,000 tokens 超长上下文,乍一看比 Claude 原版还豪横。但当我发截图时,才发现:

V4-Pro 当前版本是纯文本模型,完全不支持图片输入。

Claude Code 发送图片时,V4-Pro 会收到一个占位符 [Image #1],但对实际图像内容毫无感知。

对日常编程工作流来说,这个限制影响面相当广:

  • 截图报错让模型分析 → ❌ 看不见
  • 发 UI 设计稿让模型写代码 → ❌ 看不见
  • 发报表渲染结果让模型诊断问题 → ❌ 看不见
  • 粘贴终端截图 → ❌ 看不见

1M 上下文能塞进去整个代码仓库,却塞不进去一张 PNG。

但话说回来——回头看前面测试二和测试三,大屏问题和报表样式问题都是在"看不见图"的情况下修好的。它通过读配置文件、凭领域知识推断,绕过了图像这个盲区。这恰恰是最能体现能力的地方。

目前的折中办法:需要处理图片时,临时去掉 ANTHROPIC_BASE_URL 配置,让请求回落到 Anthropic 原生 API,用完再切回来。麻烦,但能用。DeepSeek V4 的 Vision 模式已经在规划中,开放后这个问题会从根本上解决。


🐛 另一个坑:上下文太长会炸

当对话内容堆积到一定量时,模型直接炸了。虽然 V4-Pro 标称 1M 上下文,但实际使用中,超长上下文 + 复杂推理 + 多轮工具调用叠加时,还是会出现不稳定的情况。

解决方案也简单:长任务拆成短会话,阶段性重置。别指望一个会话从需求分析干到部署上线。


综合感受

经过这一整天的实战测试,对 Claude Code + DeepSeek V4-Pro 的组合有几点直观感受:

表现亮眼的地方:

  • 兼容性几乎无感:配置完成后,Claude Code 的所有功能正常运行,Skills、工具调用、多步骤 Agent 任务全部跑通。
  • 领域推理能力极强:即使在看不了图的情况下,模型也能通过读取配置文件 + 领域知识推断定位问题。大屏问题修复、报表样式修改都是这样搞定的。
  • 工具调用稳定:BPM 流程生成、大屏搭建、报表生成、部署脚本——每类任务的工具调用都准确,没出现乱调、漏调的情况。
  • 响应速度快:纯配置修改(如报表去颜色)比原生 Claude Code 还快,体感明显。
  • 改文档无感:Markdown 编辑、代码注释、文档润色这类文本任务,和原生 Claude 几乎没区别。

需要提前知道的:

  • 🚨 不支持图片(最重要):工作流重度依赖截图的场景会很痛,等 Vision 模式开放
  • 🐛 上下文太长会炸:长任务拆成短会话,阶段性重置
  • 💰 :比起其他国产模型,V4-Pro 定价确实偏高——但对标 Claude 原版,性价比依然在线

总结

Claude Code + DeepSeek V4-Pro,一句话评价:除了贵,没别的毛病

OA 审批流程、BI 大屏、钻取报表、自动化部署、文档修改——五大实战场景全部通关。同期我也对接了智谱 GLM-5.1MiniMax M2.7 跑同一套 Skills,这俩在工具调用上总有些小毛病——要么调用顺序乱,要么参数识别偏差,要么复杂 Skill 直接执行不下去;相比之下,V4-Pro 是目前我测过的国产模型里 Skills 配合最稳的一个,基本可以无人值守跑完全流程。

不支持图片是硬伤,但模型通过"绕路"的方式(读配置、推逻辑)在相当程度上弥补了这个短板。

更重要的是,相比 Claude 原版那种"哪天号就没了"的悬念,这套方案至少把账号稳定性这件事给解决了。如果你日常工作中截图不多、以纯代码和配置任务为主,现在就可以切过来用;如果你重度依赖图片输入,建议等 DeepSeek V4 Vision 模式开放 API 后再全面切换——那之后,这套方案就真的补全了最后一块拼图。


测试环境:Claude Code v2.1.119,DeepSeek V4-Pro(deepseek-v4-pro),2026-04-24

本文为 JeecgBoot AI 专题研究系列文章。

目录
相关文章
|
5天前
|
缓存 人工智能 自然语言处理
我对比了8个Claude API中转站,踩了不少坑,总结给你
本文是个人开发者耗时1周实测的8大Claude中转平台横向评测,聚焦Claude Code真实体验:以加权均价(¥/M token)、内部汇率、缓存支持、模型真实性及稳定性为核心指标。
2362 16
|
23天前
|
人工智能 数据可视化 安全
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
本文详解如何用阿里云Lighthouse一键部署OpenClaw,结合飞书CLI等工具,让AI真正“动手”——自动群发、生成科研日报、整理知识库。核心理念:未来软件应为AI而生,CLI即AI的“手脚”,实现高效、安全、可控的智能自动化。
34940 57
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
|
17天前
|
人工智能 自然语言处理 安全
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
本文介绍了Claude Code终端AI助手的使用指南,主要内容包括:1)常用命令如版本查看、项目启动和更新;2)三种工作模式切换及界面说明;3)核心功能指令速查表,包含初始化、压缩对话、清除历史等操作;4)详细解析了/init、/help、/clear、/compact、/memory等关键命令的使用场景和语法。文章通过丰富的界面截图和场景示例,帮助开发者快速掌握如何通过命令行和交互界面高效使用Claude Code进行项目开发,特别强调了CLAUDE.md文件作为项目知识库的核心作用。
15753 46
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
|
13天前
|
人工智能 JavaScript Ubuntu
低成本搭建AIP自动化写作系统:Hermes保姆级使用教程,长文和逐步实操贴图
我带着怀疑的态度,深度使用了几天,聚焦微信公众号AIP自动化写作场景,写出来的几篇文章,几乎没有什么修改,至少合乎我本人的意愿,而且排版风格,也越来越完善,同样是起码过得了我自己这一关。 这个其实OpenClaw早可以实现了,但是目前我觉得最大的区别是,Hermes会自主总结提炼,并更新你的写作技能。 相信就冲这一点,就值得一试。 这篇帖子主要就Hermes部署使用,作一个非常详细的介绍,几乎一步一贴图。 关于Hermes,无论你赞成哪种声音,我希望都是你自己动手行动过,发自内心的选择!
3029 29
|
2天前
|
云安全 人工智能 安全
|
2天前
|
人工智能 测试技术 API
阿里Qwen3.6-27B正式开源:网友直呼“太牛了”!
阿里云千问3.6系列重磅开源Qwen3.6-27B稠密大模型!官网:https://t.aliyun.com/U/JbblVp 仅270亿参数,编程能力媲美千亿模型,在SWE-bench等权威基准中表现卓越。支持多模态理解、本地部署及OpenClaw等智能体集成,已开放Hugging Face与ModelScope下载。
|
1天前
|
机器学习/深度学习 缓存 测试技术
DeepSeek-V4开源:百万上下文,Agent能力比肩顶级闭源模型
DeepSeek-V4正式开源!含V4-Pro(1.6T参数)与V4-Flash(284B参数)双版本,均支持百万token上下文。首创混合注意力架构,Agent能力、世界知识与推理性能全面领先开源模型,数学/代码评测比肩顶级闭源模型。
1228 6

热门文章

最新文章

下一篇
开通oss服务