6月16日消息,韩国KAIST和TB级互联与封装实验室共同预测了未来十年AI GPU加速卡的发展趋势。当前最先进的HBM3E已实现最大288GB,而即将推出的HBM4预计可达384GB至432GB。未来HBM5可能达到400-500GB,HBM6达1.5-1.9TB,HBM7更将突破5-6TB。NVIDIA Rubin系列预计明年推出,单卡功耗达2200W;到2029年的Feyman系列,功耗将升至4400W。若按此趋势发展,2035年新一代GPU功耗或超15000W。如此高的功耗引发担忧,数据中心能源需求或将大幅增加。
原文链接
本文链接:https://kx.umi6.com/article/20258.html
转载请注明文章出处
相关推荐
换一换
集邦预估: 2026 年 AI 服务器出货增长 20.9 %,HBM 内存消耗增长 70+ %
2025-11-02 12:22:15
荣耀 MagicOS 9.0 升级支持 30 亿参数端侧大语言模型:功耗下降 80%,内存占用减少 1.6GB
2024-10-23 16:40:26
AI芯片「功耗悬崖」:大模型催生的冷却技术革命
2025-05-02 10:54:23
AI提升1843%!酷睿Ultra 200V系列正式发布:史上最快单核、功耗骤降50%
2024-09-04 05:55:08
NVIDIA今年已售超300万块Blackwell AI GPU!怪不得RTX 50这么缺货
2025-03-19 12:29:01
AI GPU加速卡功耗失控!10年内超过15000W
2025-06-16 01:00:33
华为即将发布AI推理领域突破性成果:或能降低对HBM内存依赖
2025-08-10 10:45:55
CPO,过热了?
2025-12-25 18:53:11
不只是效率工具!数据揭露扎心真相:年轻人把AI当成情感树洞
2026-02-25 19:48:45
百度:2025年营收达1291亿元 四季度AI业务收入占比43%
2026-02-26 18:24:23
中国AI调用量首超美国 四款大模型霸榜全球前五
2026-02-26 20:34:17
北大林宙辰团队:从最优传输角度训练时序预测模型 丨ICLR 2026
2026-02-26 21:39:03
中贝通信入股AI大模型公司阶跃星辰
2026-02-26 14:04:47
639 文章
422325 浏览
24小时热文
更多
-
2026-02-26 22:43:24 -
2026-02-26 21:40:10 -
2026-02-26 21:39:03