DeepSeek-V4正式登陆阿里云百炼!价格低至1元/百万Tokens,性能对标顶级闭源模型,快来体验:阿里云百炼上线DeepSeek-V4,百万Tokens输入最低仅需1元,阿里云百炼平台首发上线DeepSeek-V4-pro和DeepSeek-V4-flash两款模型,API价格DeepSeek官网一致,百万Tokens输入最低仅需1元,百万Tokens输出最低2元。在阿里云百炼官网体验DeepSeek-V4:https://www.aliyun.com/product/bailian
阿里云智能计算灵骏依托专为长上下文及万亿参数MoE场景预设计的算力集群与十万卡级的扩展性,支撑百炼在Day 0即实现DeepSeek V4预览版的稳定适配和运行。
DeepSeek-V4 拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先。模型按大小分为两个版本:
相比前代模型,DeepSeek-V4-Pro 的 Agent 能力显著增强。在 Agentic Coding 评测中,V4-Pro 已达到当前开源模型最佳水平,并在其他 Agent 相关评测中同样表现优异。目前 DeepSeek-V4 已成为公司内部员工使用的 Agentic Coding 模型,据评测反馈使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式,但仍与 Opus 4.6 思考模式存在一定差距。
DeepSeek-V4-Pro 在世界知识测评中,大幅领先其他开源模型,仅稍逊于顶尖闭源模型 Gemini-Pro-3.1。
在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro 超越当前所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。
DeepSeek-V4 针对 Claude Code 、OpenClaw、OpenCode、CodeBuddy 等主流的 Agent 产品进行了适配和优化,在代码任务、文档生成任务等方面表现均有提升。
DeepSeek API 已同步上线 V4-Pro 与 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。访问新模型时,base_url 不变, model 参数需要改为 deepseek-v4-pro 或 deepseek-v4-flash。
V4-Pro 与 V4-Flash 最大上下文长度为 1M,均同时支持非思考模式与思考模式,其中思考模式支持 reasoning_effort 参数设置思考强度(high/max)。对于复杂的 Agent 场景建议使用思考模式,并设置强度为 max。