震惊AI界!DeepSeek挑战GPT-4o霸主地位,发布超低价开源大模型

简介: 震惊AI界!DeepSeek挑战GPT-4o霸主地位,发布超低价开源大模型

震惊AI界!DeepSeek挑战GPT-4o霸主地位,发布超低价开源大模型

DeepSeek-V2 的综合能力

中文综合能力(AlignBench):开源模型中最强,与 GPT-4-Turbo、文心 4.0 等闭源模型在评测中处于同一梯队

英文综合能力(MT-Bench) :处于第一梯队 英文综合能力(MT-Bench)与最强的开源模型 LLaMA3-70B 处于同一梯队,超过最强 MoE 开源模型 Mixtral8x22B

知识:知识、数学、推理、编程等榜单结果位居前列

上下文:开源模型和 API 支持 128K 上下文

性能

一些分析报告指出,DeepSeek V2 模型在训练时使用了高达8.1万亿个token,并且展示了令人难以置信的高效训练能力,其计算需求仅为Meta Llama 3 70B模型的五分之一。

换一种说法,DeepSeek-V2 在训练时所需的计算资源仅为 GPT-4 的二十分之一,但性能上却相差无几。

有外国网友对此给予了极高的评价,认为 DeepSeek V2 在仅有210亿个活跃参数的情况下,能够展现出如此强大的推理能力,实在令人震惊。

DeepSeek API 定价(价格屠夫)

作为AI技术的前沿领域,大模型更新换代之快有目共睹,再强的性能也可能在发布的下一秒就被友商反超。

因此,DeepSeek 选择“卷”价格。

目前DeepSeek-V2 API的定价为:每百万token输入1元、输出2元(32K上下文)

和友商相比,仅为 GPT-4-Turbo 的近百分之一

最后

DeepSeek 宣称,其使用8个H800 GPU的单台服务器在最佳状态下每秒能够处理超过50000个解码token。

如果只考虑按照输出 tokenAPI 计费,那么每个服务器每小时可以赚取超过50美元。

假设服务器的使用率是100%,并且每个8个 H800 GPU 的服务器每小时的成本是15美元,那么 DeepSeek 的每台服务器每小时的净收益高达35美元以上,毛利率甚至超过70%。

有专家分析认为,即便服务器的使用率没有达到最大,或者批处理速度没有达到最高性能,DeepSeek 依然拥有可观的利润空间。

总结就是,主打一个“经济实惠”,简直就是AI版“拼多多”。



我码玄黄
+关注
目录
打赏
0
1
2
0
43
分享
相关文章
开源VLM“华山论剑”丨AI Insight Talk多模态专场直播预告
开源VLM“华山论剑”丨AI Insight Talk多模态专场直播预告
132 10
开源VLM“华山论剑”丨AI Insight Talk多模态专场直播预告
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
233 0
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
|
26天前
智谱发布GLM-4.5V,全球开源多模态推理新标杆,Day0推理微调实战教程到!
视觉语言大模型(VLM)已经成为智能系统的关键基石。随着真实世界的智能任务越来越复杂,VLM模型也亟需在基本的多模态感知之外,逐渐增强复杂任务中的推理能力,提升自身的准确性、全面性和智能化程度,使得复杂问题解决、长上下文理解、多模态智能体等智能任务成为可能。
281 0
MiniCPM-V4.0开源,多模态能力进化,手机可用,还有最全CookBook!
今天,面壁小钢炮新一代多模态模型 MiniCPM-V 4.0 正式开源。依靠 4B 参数,取得 在 OpenCompass、OCRBench、MathVista 等多个榜单上取得了同级 SOTA 成绩,且 实现了在手机上稳定、丝滑运行。此外,官方也正式开源了 推理部署工具 MiniCPM-V CookBook,帮助开发者面向不同需求、不同场景、不同设备,均可实现开箱即用的轻量、简易部署。
218 0
让AI读懂代码需求:模块化大模型微调助力高效代码理解与迁移
本文介绍了一种解决开源项目代码升级中“用户需求关联相应代码”难题的创新方法。面对传统Code RAG和Code Agent在召回率、准确率和稳定性上的不足,以及领域“黑话”和代码风格差异带来的挑战,作者团队提出并实践了一套以大模型微调(SFT)为核心的解决方案。
263 21
分享一个开源的MCP工具使用的AI Agent 支持常用的AI搜索/地图/金融/浏览器等工具
介绍一个开源可用的 MCP Tool Use 通用工具使用的 AI Agent (GitHub: https://github.com/AI-Agent-Hub/mcp-marketplace ,Web App https://agent.deepnlp.org/agent/mcp_tool_use,支持大模型从Open MCP Marketplace (http://deepnlp.org/store/ai-agent/mcp-server) 的1w+ 的 MCP Server的描述和 Tool Schema 里面,根据用户问题 query 和 工具 Tool描述的 相关性,选择出来可以满足
AI Agent多模态融合策略研究与实证应用
本文从多模态信息融合的理论基础出发,构建了一个结合图像与文本的AI Agent模型,并通过PyTorch代码实现了完整的图文问答流程。未来,多模态智能体将在医疗、自动驾驶、虚拟助手等领域展现巨大潜力。模型优化的核心是提升不同模态的协同理解与推理能力,从而打造真正“理解世界”的AI Agent。
AI Agent多模态融合策略研究与实证应用
【深度】企业 AI 落地实践(四):如何构建端到端的 AI 应用观测体系
本文探讨了AI应用在实际落地过程中面临的三大核心问题:如何高效使用AI模型、控制成本以及保障输出质量。文章详细分析了AI应用的典型架构,并提出通过全栈可观测体系实现从用户端到模型推理层的端到端监控与诊断。结合阿里云的实践经验,介绍了基于OpenTelemetry的Trace全链路追踪、关键性能指标(如TTFT、TPOT)采集、模型质量评估与MCP工具调用观测等技术手段,帮助企业在生产环境中实现AI应用的稳定、高效运行。同时,针对Dify等低代码平台的应用部署与优化提供了具体建议,助力企业构建可扩展、可观测的AI应用体系。

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等

登录插画

登录以查看您的控制台资源

管理云资源
状态一览
快捷访问