1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
算力,终于像电一样被「发明」出来了
2026年CES展上,黄仁勋发布Vera Rubin超算架构,推理性能较Blackwell提升5倍,训练性能提升3.5倍,成本降低10倍。Vera Rubin不仅是一次芯片升级,更实现了AI算力从科研资源到工业化基础设施的转变,类比电力革命。其创新涵盖算力层、调度层、互联与存储及系统级封装,通过动态精度体系、Vera CPU调度优化和BlueField-4管理上下文内存,显著提升效率并降低成本。英伟达通过系统专利和软硬一体生态锁定竞争优势,并以开源定义行业标准。Vera Rubin将推动AI从科研走向产业,助力物理AI发展,重塑机器人、医疗等领域,开启算力普及新时代。
虚拟织梦者
01-14 11:33:54
ai
Vera Rubin
算力
分享至
打开微信扫一扫
内容投诉
生成图片
黄仁勋CES上硬菜:Vera Rubin已量产,为AI赌上6颗芯片
2026年CES展上,英伟达CEO黄仁勋宣布全新AI芯片架构Vera Rubin已全面投产。这一架构包括六颗重新设计的芯片,从GPU到CPU、互联方式及机柜设计均有突破性创新。核心Rubin GPU性能达50 PFLOPS,是前代Blackwell的5倍,但晶体管仅增加1.6倍;Vera CPU采用...
月光编码师
01-08 20:37:12
AI需求
Vera Rubin
芯片架构
分享至
打开微信扫一扫
内容投诉
生成图片
英伟达发布新一代GPU 推理算力是Blackwell的5倍
1月5日,英伟达CEO黄仁勋在CES演讲中发布新一代AI平台Rubin,包含六款新芯片:Vera CPU、Rubin GPU、NVLink 6交换机等。其中,Rubin GPU搭载第三代Transformer引擎,推理算力达50PFLOPS,是Blackwell的5倍。该平台已全面投产,基于Rubin的产品预计2026年下半年通过合作伙伴上市。
AI创意引擎
01-06 07:55:49
Rubin GPU
推理算力
英伟达
分享至
打开微信扫一扫
内容投诉
生成图片
报道:明年英伟达GB300出货量可达5.5万台 Vera Rubin200预计明年四季度出货
财联社12月22日电,市场预测显示,英伟达GB300 AI服务器机柜明年出货量有望达到5.5万台,同比增长129%,主要由微软、Meta等科技巨头推动。此外,下一代Vera Rubin 200平台预计明年第四季度开始出货,为鸿海、广达等供应链厂商提供增长动力。部分厂商订单能见度已延伸至2027年,显示出强劲的市场需求和行业前景。
超频思维站
12-22 20:00:25
AI服务器
Vera Rubin200
英伟达GB300
分享至
打开微信扫一扫
内容投诉
生成图片
432GB HBM4内存!AMD MI450 AI加速卡向NVIDIA极限施压
2026年,AMD将推出Instinct MI450系列AI加速卡,包括面向AI训练的MI455X和高性能计算的MI430X两款型号。该系列采用下一代CDNA 5架构、2nm工艺及3.5D封装技术,配备432GB HBM4内存,纵向带宽达3.6TB/s,横向带宽300GB/s。FP8性能峰值为20PFlops,新FP4格式下可达40PFlops。AMD称,其内存容量与纵向带宽较NVIDIA Rubin领先50%,其他关键性能指标也处于同一水平。若AMD进一步优化ROCm平台生态,将对NVIDIA形成强大竞争压力,为行业提供更多选择。
数字墨迹
11-12 19:20:32
AMD MI450
HBM4内存
NVIDIA Rubin
分享至
打开微信扫一扫
内容投诉
生成图片
英伟达新GPU,超长上下文/视频生成专用
2025年9月14日,英伟达在AI Infra Summit上发布全新GPU——NVIDIA Rubin CPX,专为处理百万token级别的代码生成和生成式视频任务设计。这款基于Rubin架构的GPU采用单片设计,内置NVFP4计算资源,提供高达30PFLOPS算力,配备128GB GDDR7内存,性能较A100显著提升。Rubin CPX可与Vera CPU和GPU协同工作,构成Vera Rubin NVL144 CPX平台,实现8EFLOPS AI算力和1.7PB/s内存带宽,较现有系统提升7.5倍。其应用场景包括复杂软件项目优化、高质量生成式视频等。英伟达预计Rubin CPX将于2026年底正式推出,并将获得完整AI软件栈支持。行业专家认为该产品将在代码生产力和影像创作领域带来突破。
未来编码者
09-14 14:42:14
Rubin CPX
英伟达
超长上下文
分享至
打开微信扫一扫
内容投诉
生成图片
NVIDIA宣布下代AI服务器:288颗GPU+36颗CPU 800亿亿次每秒
2025年9月10日,NVIDIA宣布推出下一代AI服务器“Vera Rubin NVL144 CPX”,单机架配备144颗GPU和36颗CPU,搭载1.7PB/s带宽的HBM4内存及100TB高速存储。其算力在NVFP4精度下达8 EFlops(每秒800亿亿次),较GB300 NVL72提升7.5倍。若需更高性能,可将两台服务器组合实现配置与算力翻倍。NVIDIA称,投入1亿美元即可带来50亿美元回报。Rubin GPU及相关系统预计2026年底推出,2027年升级为Rubin Ultra,2028年推出全新Feyman GPU,持续搭配Vera CPU。
智慧轨迹
09-10 15:37:15
AI服务器
Nvidia
Rubin GPU
分享至
打开微信扫一扫
内容投诉
生成图片
英伟达发布超长上下文推理芯片Rubin CPX 算力效率拉爆当前旗舰
2025年9月10日,英伟达宣布推出专为长上下文工作负载设计的GPU芯片Rubin CPX,显著提升AI推理效率,特别是在编程和视频生成等需要超长上下文的应用场景。Rubin CPX基于下一代顶级算力芯片Rubin开发,预计2026年底出货。新芯片将集成在NVIDIA Vera Rubin NVL144 CPX服务器中,性能较当前旗舰GB300 NVL72提升最多6.5倍,提供8exaFLOPs算力、100TB高速内存和1.7PB/s带宽。英伟达表示,部署价值1亿美元的新芯片可为客户带来50亿美元收入。Rubin CPX针对数百万tokens级别的长上下文优化,配备30petaFLOPs算力和128GB GDDR7内存,分离上下文与生成阶段计算负载,大幅提升资源利用率。
心智奇点
09-10 08:32:11
Rubin CPX
英伟达
长上下文推理
分享至
打开微信扫一扫
内容投诉
生成图片
首款专为大规模上下文 AI 设计的 CUDA GPU,英伟达 Rubin CPX 发布
英伟达于9月10日发布首款专为大规模上下文AI设计的CUDA GPU——Rubin CPX。该GPU具备128GB GDDR7显存,支持3倍attention能力,并通过4-bit NVFP4精度提供30 petaflops计算性能,适用于大规模编码和生成视频等高需求任务。新产品将作为Vera Rubin平台的一部分,全机架版本NVL144 CPX可达8 exaflops AI性能。英伟达CEO黄仁勋称其革新了大规模上下文AI处理,并预计1亿美元投资可带来50亿美元收益。Rubin CPX将支持英伟达完整软件栈,包括多模态模型Nemotron系列,预计2026年底正式推出。
梦境编程师
09-10 01:24:36
Rubin CPX
大规模上下文 AI
英伟达
分享至
打开微信扫一扫
内容投诉
生成图片
英伟达新一代 AI 芯片 Rubin 重磅官宣,2026 年下半年推出
在英伟达GTC 2025大会上,CEO黄仁勋发布了Blackwell Ultra NVL72平台,预计2025年下半年推出,带宽提升两倍,内存速度提升1.5倍。随后,英伟达宣布了新一代AI芯片Rubin,该系列芯片以天文学家薇拉·鲁宾命名,延续了以科学家命名的传统。其中,Vera Rubin NVL144计划于2026年下半年发布,Rubin Ultra NVL576则定于2027年下半年推出。黄仁勋透露,Rubin的性能将是Hopper的900倍,而Blackwell仅为Hopper的68倍。英伟达表示,这一突破将极大推动AI计算能力的发展。
新智燎原
03-19 04:07:39
AI芯片
Rubin
英伟达
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序