标题:DeepSeek算力需求暴降,为何全球算力竞赛更疯狂?
春节期间,国产大模型DeepSeek-R1问世,展现了低成本、低算力需求下的高性能,打破了“烧钱买芯片”的传统模式。英伟达股价因此下跌,预示着“暴力堆算力”时代的终结。
然而,算力真的不再重要吗?并非如此。谷歌、微软、Meta和亚马逊纷纷宣布2025年将加大算力投入。谷歌计划投资750亿美元,微软则投入800亿美元。Meta和亚马逊也大幅增加预算,分别为66%和1000亿至1050亿美元。
四巨头在算力上的投入,反映出“杰文斯悖论”在AI领域的重现。技术进步虽提高效率,但需求增加导致总消耗上升。DeepSeek的出现并未抑制算力需求,反而推高了全球算力需求。
DeepSeek-R1虽降低了训练成本,但性能提升仍依赖大量算力。DeepSeek-V3的混合专家架构在推理环节需消耗更多算力。DeepSeek API调用量迅速增加,服务器算力资源紧张,迫使官方暂停API充值服务。
尽管如此,DeepSeek引发的本地部署浪潮仍在继续。微软、英特尔及多家中国公司均宣布将DeepSeek模型本地化。这不仅未缓解全球算力焦虑,反而加剧了竞争。
DeepSeek既证明了算法优化的重要性,也加剧了算力竞赛。未来的竞赛将是算法与算力的双重博弈,谁能更好地平衡效率与投入,谁将占据优势。
原文链接
本文链接:https://kx.umi6.com/article/13573.html
转载请注明文章出处
相关推荐
换一换
DeepSeek 线上模型升级至 V3.1-Terminus 版本,改进语言一致性及 Agent 能力
2025-09-22 21:02:17
DeepSeek首登《自然》封面:中国大模型创造新历史,做了OpenAI不敢做的事
2025-09-18 16:58:59
六大AI模型被扔进加密市场厮杀,DeepSeek暂为交易之王
2025-10-20 18:12:39
中国大模型首登Nature封面!DeepSeek首次披露:R1训练只花200万
2025-09-18 13:51:50
DeepSeek 开源新模型 V3.1:约 685B 参数,上下文长度拓展至 128K
2025-08-20 10:11:16
DeepSeek发布新论文提出更为高效的AI开发方法
2026-01-02 18:32:56
OpenAI发布开源模型“王者归来”,DeepSeek剧情会反转吗
2025-08-06 12:31:08
DeepSeek网页版大升级!随后宕机11小时崩上热搜,新模型真的来了
2026-03-30 11:42:07
DeepSeek连更GitHub 华尔街回想起被支配的恐惧
2026-02-24 15:51:36
DeepSeek:正测试新的长文本模型结构 支持1M上下文
2026-02-13 20:39:39
奥尔特曼:DeepSeek 团队很有才华,但他们没找到比 OpenAI 更高效的方法
2025-07-21 21:22:47
DeepSeek V3.1突现离谱Bug:“极”字满屏乱蹦,开发者一脸懵逼
2025-08-26 14:46:26
Transformer作者:DeepSeek才有搞头,OpenAI指望不上了
2025-09-12 11:09:05
776 文章
601528 浏览
24小时热文
更多
-
2026-04-24 20:31:56 -
2026-04-24 20:29:51 -
2026-04-24 19:29:38