综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
分析师郭明錤最新调查显示,英伟达投资Groq后,LPU出货量预测大幅上调,预计2026至2027年总出货量将达400万至500万颗。为优化超低延迟优势,英伟达计划将每机柜LPU数量从64颗提升至256颗。新架构机柜预计今年第四季度量产,2026年与2027年机柜出货量分别约为300至500个,以及15000至20000个。
原文链接
2026年3月,英伟达将在圣何塞GTC大会上发布全新AI推理系统,核心为一颗基于Groq LPU架构的推理优化芯片。这是英伟达首次在核心AI算力产品线中引入外部架构设计,背后是其200亿美元收购Groq核心技术与团队的结果。首位大客户为完成1100亿美元融资的OpenAI,计划使用3GW专用推理算力。LPU架构采用高密度片上SRAM,降低延迟与能耗,更适合低延迟推理场景,理论速度比GPU快100倍。随着AI算力重心从训练转向推理,英伟达面临来自Cerebras、AMD及国产芯片厂商的竞争压力。此外,黄仁勋还预告将发布‘世界前所未见’的新系列产品,或包括Rubin系列新一代GPU及其他全新架构芯片。
原文链接
2025年12月24日,英伟达以200亿美元收购推理芯片独角兽Groq及其核心技术团队,创始人Jonathan Ross带队加盟。Groq独创的LPU芯片技术将融入英伟达AI Factory架构,其推理性能达GPU 5-10倍,成本仅为1/10。此次交易被视为“收购式招聘”升级版,本质是锁定人才与技术,补强英伟达在推理市场的短板。业内人士认为,此举不仅对抗谷歌TPU,更意在垄断推理市场技术路线。英伟达计划将LPU作为专用单元嵌入CUDA生态,并可能在2028年推出集成LPU的Feynman GPU。此次收购彰显英伟达巩固AI算力主导权的战略意图。
原文链接
标题:LPU能否取代英伟达?
近日,A股市场热议Deepseek国产大模型技术,而LPU芯片又成为新焦点。LPU是美国Groq公司去年发布的一种AI处理器,专为大语言模型推理设计。尽管声称推理速度快十倍,成本仅十分之一,但其实并无国产消息。
LPU通过将高带宽内存(HBM)替换为速度更快但容量更低的静态随机内存(SRAM),提高推理速度。然而,其适用范围有限,难以处理图像视频等任务。此外,LPU的效率提升并未达到ASIC矿机的程度,实际运营成本较高。
虽然LPU并非无用,但目前吹捧过早。AI行业的不确定性使得LPU的发展前景不明朗,而A股市场的过度炒作也不值得信任。
原文链接
Deepseek近期被热议,称其LPU芯片能大幅提高AI推理效率,号称成本仅为NVIDIA的十分之一。LPU并非新事物,由美国Groq公司去年发布的AI处理器,中文名为“语言处理单元”,用于大语言模型推理。然而,LPU目前没有国产消息,且其效率提升并未达到预期,仅比现有技术高出十多倍或百多倍。此外,LPU的专用性使其在处理其他任务时存在局限。目前,LPU的成本问题也未得到解决,运营成本高于NVIDIA的H100。因此,LPU能否替代NVIDIA尚存疑问。
原文链接
加载更多
暂无内容