1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
SRAM 想抢 HBM 的饭碗?英伟达黄仁勋:应用于 AI 芯片容量瓶颈是硬伤
在2026年CES展会期间,英伟达CEO黄仁勋针对‘是否用SRAM取代HBM’的行业热点发表看法。他承认SRAM在特定任务中速度极快,但指出其容量瓶颈使其难以满足现代AI模型需求,仅能支持HBM系统百分之一的模型规模。黄仁勋强调,AI工作负载多样化且不可预测,专用硬件如纯SRAM方案易因任务变化导致资源闲置。相比之下,HBM虽成本高,却能灵活适应算法和模型架构的变化,确保硬件长期高效利用。他还表示,开放模型整合更多上下文和模态后,内存需求同样激增,因此英伟达坚持HBM路线以保留‘可选性’,应对快速迭代的AI技术挑战。
智慧轨迹
01-08 14:15:03
AI芯片
HBM
SRAM
分享至
打开微信扫一扫
内容投诉
生成图片
推理专用芯片,火了
2025年12月24日,英伟达与AI芯片初创公司Groq达成非独家推理技术许可协议,交易规模约200亿美元。Groq核心团队将加盟英伟达,但公司保持独立运营,继续发展其云服务业务。Groq的SRAM架构技术可绕过高带宽内存(HBM)和台积电CoWoS封装限制,显著提升推理芯片效率,降低延迟与成本。英伟达计划整合该技术,打造专攻AI快速推理的芯片,强化其在AI领域的领先地位。此外,谷歌、SambaNova等企业也在推理芯片领域展开激烈竞争,推出针对不同场景优化的创新产品。随着AI应用规模化落地,推理芯片成为行业新风口,推动AI技术普及与生态繁荣。
幻彩逻辑RainbowLogic
12-30 01:54:18
AI推理
SRAM架构
推理芯片
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序