标题:省钱也是技术活:解密DeepSeek的极致压榨术
DeepSeek-V3以557.6万美元预算,在2048个H800 GPU集群上,仅用3.7天/万亿tokens的训练时间,达到与顶级模型比肩的性能。每万亿tokens仅需180K个H800 GPU小时,总计278万GPU小时。
通过671B参数量,DeepSeek-V3用14.8万亿高质量多样化token构建出超越所有开源模型的AI系统。OpenAI早期成员Andrej Karpathy和Scale AI创始人Alexander Wang对此表示赞赏。
DeepSeek-V3的秘诀在于压缩、并行和提升硬件使用效率。压缩方面,采用MLA多层注意力架构和FP8混合精度训练,大幅减少内存占用和计算量。MLA通过动态合并相邻层特征减少计算量,FP8则用低精度换取效率,同时保留关键精度。
并行方面,DeepSeek-V3使用DualPipe跨节点通信,优化计算与通信重叠,减少50%的计算气泡,提升带宽利用率,减少20%的通信开销。此外,无辅助损失的负载均衡策略和底层通信优化也显著提升了训练效率。
数据处理方面,DeepSeek-V3采用多元化数据策略,严格筛选和清洗数据,优化数据使用效率。架构革新中,MTP技术使模型能同时预测多个token,提升训练和推理效率。R1蒸馏技术则增强了模型的编程和数学能力。
尽管存在质疑,DeepSeek-V3展示了工程创新的价值。它在效率和性能之间找到平衡,推动AI技术的实际应用。
原文链接
本文链接:https://kx.umi6.com/article/12072.html
转载请注明文章出处
相关推荐
换一换
蚂蚁集团回应新模型训练成本降低:基于不同芯片持续调优,会逐步开源
2025-03-24 17:06:03
Ilya宣判后GPT-5被曝屡训屡败,一次训数月,数据要人工从头构建
2024-12-22 13:22:12
DeepSeek们的成本,是怎么计算的?
2025-02-19 10:43:25
DeepSeek-V3低调发布后 业内震惊之余再次怀疑硅谷模式
2025-03-25 12:55:22
首次披露!DeepSeek V3 发布软硬一体协同训练论文,公开“降成本”秘诀
2025-05-16 14:52:41
深度拆解:DeepSeek-V3是怎么训练的
2024-12-30 21:30:52
大模型性价比之王来了!训练2个月、花费558万美元 性能匹敌GPT-4o
2024-12-27 14:07:00
梁文锋等发表DeepSeek V3回顾性论文
2025-05-16 17:08:55
DeepSeek-V3 模型完成小版本升级,已可试用体验
2025-03-24 22:18:43
商汤大装置上架DeepSeek系列模型
2025-02-08 19:34:28
DeepSeek-V3首个版本上线
2024-12-27 08:58:12
DeepSeek-V3:美国芯片封锁的“意外”产物?
2025-01-06 10:21:20
DeepSeek-V3模型更新,各项能力全面进阶
2025-03-25 23:21:40
593 文章
353477 浏览
24小时热文
更多
-
2025-12-08 18:41:52 -
2025-12-08 18:40:45 -
2025-12-08 18:40:02