标题:省钱也是技术活:解密DeepSeek的极致压榨术
DeepSeek-V3以557.6万美元预算,在2048个H800 GPU集群上,仅用3.7天/万亿tokens的训练时间,达到与顶级模型比肩的性能。每万亿tokens仅需180K个H800 GPU小时,总计278万GPU小时。
通过671B参数量,DeepSeek-V3用14.8万亿高质量多样化token构建出超越所有开源模型的AI系统。OpenAI早期成员Andrej Karpathy和Scale AI创始人Alexander Wang对此表示赞赏。
DeepSeek-V3的秘诀在于压缩、并行和提升硬件使用效率。压缩方面,采用MLA多层注意力架构和FP8混合精度训练,大幅减少内存占用和计算量。MLA通过动态合并相邻层特征减少计算量,FP8则用低精度换取效率,同时保留关键精度。
并行方面,DeepSeek-V3使用DualPipe跨节点通信,优化计算与通信重叠,减少50%的计算气泡,提升带宽利用率,减少20%的通信开销。此外,无辅助损失的负载均衡策略和底层通信优化也显著提升了训练效率。
数据处理方面,DeepSeek-V3采用多元化数据策略,严格筛选和清洗数据,优化数据使用效率。架构革新中,MTP技术使模型能同时预测多个token,提升训练和推理效率。R1蒸馏技术则增强了模型的编程和数学能力。
尽管存在质疑,DeepSeek-V3展示了工程创新的价值。它在效率和性能之间找到平衡,推动AI技术的实际应用。
原文链接
本文链接:https://kx.umi6.com/article/12072.html
转载请注明文章出处
相关推荐
.png)
换一换
阿里通义灵码新增支持 DeepSeek-V3 / R1 模型,降低 AI 编程门槛
2025-02-13 17:20:53
DeepSeek-V3横空出世,浙江私募力量震惊硅谷
2025-01-18 19:38:08
Anthropic 首席执行官:未来三年内,AI 大模型训练成本将上升至百亿甚至千亿美元
2024-07-08 16:46:06
商汤大装置上架DeepSeek系列模型
2025-02-08 19:34:28
国产之光DeepSeek把AI大佬全炸出来了!671B大模型训练只需此前算力1/10,细节全公开
2024-12-27 13:01:10
GPT-5研发一年半进度堪忧,每轮5亿美金训练成本打水漂
2024-12-24 15:38:27
DeepSeek全尺寸模型上线阿里云百炼
2025-02-09 14:48:13
阿里云 PAI 支持云上一键部署 DeepSeek-V3、DeepSeek-R1 系列模型
2025-02-07 23:07:43
京东云上线DeepSeek-R1/V3
2025-02-05 11:06:47
国产开源模型,代码能力比肩 Claude,DeepSeek-V3 正式发布
2024-12-30 11:15:36
DeepSeek-V3首个版本上线
2024-12-27 08:58:12
DeepSeek-V3模型更新,各项能力全面进阶
2025-03-25 23:21:40
DeepSeek-V3 模型完成小版本升级,已可试用体验
2025-03-24 22:18:43
545 文章
268060 浏览
24小时热文
更多

-
2025-10-24 01:20:07
-
2025-10-24 00:18:56
-
2025-10-23 21:15:29