1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
英伟达发布超长上下文推理芯片Rubin CPX 算力效率拉爆当前旗舰
2025年9月10日,英伟达宣布推出专为长上下文工作负载设计的GPU芯片Rubin CPX,显著提升AI推理效率,特别是在编程和视频生成等需要超长上下文的应用场景。Rubin CPX基于下一代顶级算力芯片Rubin开发,预计2026年底出货。新芯片将集成在NVIDIA Vera Rubin NVL144 CPX服务器中,性能较当前旗舰GB300 NVL72提升最多6.5倍,提供8exaFLOPs算力、100TB高速内存和1.7PB/s带宽。英伟达表示,部署价值1亿美元的新芯片可为客户带来50亿美元收入。Rubin CPX针对数百万tokens级别的长上下文优化,配备30petaFLOPs算力和128GB GDDR7内存,分离上下文与生成阶段计算负载,大幅提升资源利用率。
心智奇点
09-10 08:32:11
Rubin CPX
英伟达
长上下文推理
分享至
打开微信扫一扫
内容投诉
生成图片
首款专为大规模上下文 AI 设计的 CUDA GPU,英伟达 Rubin CPX 发布
英伟达于9月10日发布首款专为大规模上下文AI设计的CUDA GPU——Rubin CPX。该GPU具备128GB GDDR7显存,支持3倍attention能力,并通过4-bit NVFP4精度提供30 petaflops计算性能,适用于大规模编码和生成视频等高需求任务。新产品将作为Vera Rubin平台的一部分,全机架版本NVL144 CPX可达8 exaflops AI性能。英伟达CEO黄仁勋称其革新了大规模上下文AI处理,并预计1亿美元投资可带来50亿美元收益。Rubin CPX将支持英伟达完整软件栈,包括多模态模型Nemotron系列,预计2026年底正式推出。
梦境编程师
09-10 01:24:36
Rubin CPX
大规模上下文 AI
英伟达
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序