> 自媒体 > (AI)人工智能 > Claude Code + DeepSeek V4-Pro 真实评测:除了贵,没别的毛病
Claude Code + DeepSeek V4-Pro 真实评测:除了贵,没别的毛病
来源:JEECG低代码平台
2026-04-28 16:18:14
172
管理

JeecgBoot AI 专题研究 | 把 Claude Code 接入 DeepSeek V4-Pro,跑完 Skills —— OA 审批、大屏、报表、部署 5 大实战场景后的真实体验

背景:为什么要替换掉原生 Claude?

最近 Claude 账号批量封禁的消息越来越密集。身边不少人的号说没就没,申诉基本石沉大海,重新注册还要担心下一次什么时候轮到自己 —— 这是目前最让人焦虑的事。对一个每天重度依赖 Claude Code 的开发者来说,账号一旦挂掉,整个工作流直接瘫痪,手头项目的进度全盘打乱。

费用倒是其次。Opus 4.6 输入价格高达 $15 / 百万 tokens 确实不便宜,但相比 "哪天早上打开电脑发现账号没了" 的不确定感,这笔账还能算。

DeepSeek 刚好发布了 V4 系列预览版,包含 V4-Pro(1.6T 参数 / 49B 激活)和 V4-Flash(284B 参数 / 13B 激活),并且提供了兼容 Anthropic 协议的 API 端点 —— 只需改一行配置,就能用 DeepSeek 驱动 Claude Code。账号稳定、计费透明,不用再为封号担惊受怕。

我花了三分钟配好,然后拿 JeecgBoot 的全套 Skills 做了一轮实战测试。

配置过程:1 分钟完成接入

核心配置非常简单,DeepSeek 提供了完整的 Anthropic API 兼容层:

{ "env": { "ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic", "ANTHROPIC_AUTH_TOKEN": "${DEEPSEEK_API_KEY}", "API_TIMEOUT_MS": "3000000", "ANTHROPIC_MODEL": "deepseek-v4-pro[1m]", "ANTHROPIC_SMALL_FAST_MODEL": "deepseek-v4-flash", "ANTHROPIC_DEFAULT_SONNET_MODEL": "deepseek-v4-pro[1m]", "ANTHROPIC_DEFAULT_OPUS_MODEL": "deepseek-v4-pro[1m]", "ANTHROPIC_DEFAULT_HAIKU_MODEL": "deepseek-v4-flash", "CLAUDE_CODE_SUBAGENT_MODEL": "deepseek-v4-pro[1m]", "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1", "CLAUDE_CODE_DISABLE_NONSTREAMING_FALLBACK": "1", "CLAUDE_CODE_EFFORT_LEVEL": "max" }, "enabledPlugins": { "frontend-design@claude-plugins-official": true, "github@claude-plugins-official": true, "code-review@claude-plugins-official": true, "superpowers@claude-plugins-official": true, "gopls-lsp@claude-plugins-official": true, "playwright@claude-plugins-official": true }, "autoUpdatesChannel": "latest", "skipDangerousModePermissionPrompt": true, "model": "deepseek-v4-pro"}

逻辑清晰:重量级任务走 V4-Pro,轻量任务走 V4-Flash。配置完启动,Claude Code 界面上直接显示 deepseek-v4-pro,问它 "你是什么模型",回答干脆利落。

测试一:OA 审批流程自动搭建

测试目标:用 JeecgBoot 的 BPM Skills,让 AI 自动搭建一套 OA 审批流程。

修复之后:

报表生成得很快,结构也正确。

接着让它去掉表格的颜色。秒改 —— 这个响应速度比原生 Claude Code 还快。

改之前:

对表格颜色这种纯配置项修改,V4-Pro 的反应极快,不需要深层推理,直接定位到配置字段然后修改,体验丝滑。

测试四:自动化部署

测试目标:用自动化部署 Skills 实现完整的前后端部署流程。这个任务比较复杂 —— 前端是本地 SVN 更新、编译打包、上传服务器;后端走 Jenkins;还需要清 CDN 缓存、自动发部署日志邮件。

说实话,这任务一开始我没抱太大期望 —— 环节太多了。但结果有点意外:前后端部署都没问题。

整个流程跑下来,SVN 更新、npm build、scp 上传、Jenkins 触发、CDN 缓存清理、邮件通知 —— 全部自动化串联成功。对日常运维来说,省掉的不只是时间,还有 "半夜部署手抖敲错命令" 的心理负担。

测试五:改文档 —— 无感切换

中间穿插了一个日常高频操作:用 Claude Code 改项目文档。整个过程完全无感,如果不是终端上写着 deepseek-v4-pro,我甚至以为自己在用 Claude 原生模型。

改文档这类任务对 V4-Pro 来说属于 "降维打击",速度快、理解准、输出干净。

巨坑预警:1M 上下文 ≠ 支持图片

测到一半,踩了个大坑。

DeepSeek V4-Pro 最亮眼的规格之一是 1,000,000 tokens 超长上下文,乍一看比 Claude 原版还豪横。但当我发截图时,才发现:

V4-Pro 当前版本是纯文本模型,完全不支持图片输入。

Claude Code 发送图片时,V4-Pro 会收到一个占位符 [Image #1],但对实际图像内容毫无感知。

对日常编程工作流来说,这个限制影响面相当广:

截图报错让模型分析 → ❌ 看不见发 UI 设计稿让模型写代码 → ❌ 看不见发报表渲染结果让模型诊断问题 → ❌ 看不见粘贴终端截图 → ❌ 看不见

1M 上下文能塞进去整个代码仓库,却塞不进去一张 PNG。

但话说回来 —— 回头看前面测试二和测试三,大屏问题和报表样式问题都是在 "看不见图" 的情况下修好的。它通过读配置文件、凭领域知识推断,绕过了图像这个盲区。这恰恰是最能体现能力的地方。

目前的折中办法:需要处理图片时,临时去掉 ANTHROPIC_BASE_URL 配置,让请求回落到 Anthropic 原生 API,用完再切回来。麻烦,但能用。DeepSeek V4 的 Vision 模式已经在规划中,开放后这个问题会从根本上解决。

另一个坑:上下文太长会炸

当对话内容堆积到一定量时,模型直接炸了。虽然 V4-Pro 标称 1M 上下文,但实际使用中,超长上下文 复杂推理 多轮工具调用叠加时,还是会出现不稳定的情况。

解决方案也简单:长任务拆成短会话,阶段性重置。别指望一个会话从需求分析干到部署上线。

综合感受

经过这一整天的实战测试,对 Claude Code DeepSeek V4-Pro 的组合有几点直观感受:

表现亮眼的地方:

兼容性几乎无感:配置完成后,Claude Code 的所有功能正常运行,Skills、工具调用、多步骤 Agent 任务全部跑通。领域推理能力极强:即使在看不了图的情况下,模型也能通过读取配置文件 领域知识推断定位问题。大屏问题修复、报表样式修改都是这样搞定的。工具调用稳定:BPM 流程生成、大屏搭建、报表生成、部署脚本 —— 每类任务的工具调用都准确,没出现乱调、漏调的情况。响应速度快:纯配置修改(如报表去颜色)比原生 Claude Code 还快,体感明显。改文档无感:Markdown 编辑、代码注释、文档润色这类文本任务,和原生 Claude 几乎没区别。

需要提前知道的:

不支持图片(最重要):工作流重度依赖截图的场景会很痛,等 Vision 模式开放上下文太长会炸:长任务拆成短会话,阶段性重置贵:比起其他国产模型,V4-Pro 定价确实偏高 —— 但对标 Claude 原版,性价比依然在线总结

Claude Code DeepSeek V4-Pro,一句话评价:除了贵,没别的毛病。

OA 审批流程、BI 大屏、钻取报表、自动化部署、文档修改 —— 五大实战场景全部通关。同期我也对接了智谱 GLM-5.1 和 MiniMax M2.7 跑同一套 Skills,这俩在工具调用上总有些小毛病 —— 要么调用顺序乱,要么参数识别偏差,要么复杂 Skill 直接执行不下去;相比之下,V4-Pro 是目前我测过的国产模型里 Skills 配合最稳的一个,基本可以无人值守跑完全流程。

不支持图片是硬伤,但模型通过 "绕路" 的方式(读配置、推逻辑)在相当程度上弥补了这个短板。

更重要的是,相比 Claude 原版那种 "哪天号就没了" 的悬念,这套方案至少把账号稳定性这件事给解决了。如果你日常工作中截图不多、以纯代码和配置任务为主,现在就可以切过来用;如果你重度依赖图片输入,建议等 DeepSeek V4 Vision 模式开放 API 后再全面切换 —— 那之后,这套方案就真的补全了最后一块拼图。

测试环境:Claude Code v2.1.119,DeepSeek V4-Pro(deepseek-v4-pro),2026-04-24

本文为 JeecgBoot AI 专题研究系列文章。

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
DeepSeek V4发布,万亿参数百万上下文,能否再次震撼AI行业..
今天DeepSeek V4上线并开源了权重文件,从技术报告上看相对V3系列有以下..
一文读懂DeepSeek V4:用27%的算力打赢100%的战争
快思慢想研究院院长 田丰一、开篇:一个让硅谷彻夜难眠的问题DeepSeek V4..
DeepSeek V4突然发布了,1.6万亿参数全开源,代码能力压过GPT-5.4..
没有发布会,没有预热海报,就这么静悄悄突然的来了。我赶快得用上,本篇..
DeepSeek V4正式上线!碾压一众大模型,普通人也能免费用上顶配AI..
#头条创作训练营#就在今天,AI圈炸锅了!国产硬核大模型DeepSeek V4全新..
DeepSeek V4深度解读:开源模型杀疯了的这一天,我看到了什么..
导语我叫老王,在科技圈写了多年文章,见过的发布不下百场。但2026年4月2..
DeepSeek V4重磅更新!万亿参数加持,开源模型直接封神..
#头条创作训练营#AI圈今天彻底沸腾了!憋了足足五个月,国产硬核大模型De..
ZPedia|一文读懂 DeepSeek V4:Agent 能力加冕开源新王,94%幻觉率是暗雷..
DeepSeek V4 的横空出世,再次搅动了全球开源大模型的格局。在 Artificia..
DeepSeek V4实测,终于搞懂了:它最牛的不是聪明,是“扛造”..
这两天,AI圈又被一个叫DeepSeek V4的家伙刷屏了。都说它多厉害多便宜,..
DeepSeekV4引爆国产算力,谁将成为中国的英伟达
来源:市场资讯(来源:泽平宏观展望)中国本土AI芯片企业在全球市场份额..
关于作者
烽火(普通会员)
文章
1884
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体105740

0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索