综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
据TrendForce集邦咨询2月13日消息,随着AI基建扩张及GPU需求增长,英伟达Rubin平台量产将推动HBM4需求上升。目前三大存储器原厂的HBM4验证已接近尾声,预计将在2026年第二季度完成。三星因产品稳定性优势,有望率先通过验证,SK海力士与美光紧随其后。届时,三大厂商或将形成供应英伟达HBM4的竞争格局,进一步巩固其在高端存储市场的地位。
原文链接
2026年2月12日,三星电子宣布已开始大规模生产HBM4,并向客户进行商业发货。这款被描述为“顶级性能”的HBM4是三星在高端半导体领域的重要突破,主要用于驱动生成式人工智能技术。长期以来,三星在HBM市场上落后于本土竞争对手SK海力士,后者在技术和英伟达订单中占据主导地位。此次量产标志着三星在人工智能芯片竞赛中的关键进展,试图缩小与SK海力士的差距并争夺更多市场份额。
原文链接
2026年2月11日,三星电子首席技术官宋载赫透露,客户对HBM4产品表示满意,公司正开发新一代增强型内存芯片zHBM,以满足人工智能领域对高性能产品的需求。zHBM核心是将HBM堆叠成3D结构,预计在物理人工智能时代的带宽和能源效率方面实现重大创新。这一进展凸显了三星在高端存储技术领域的持续领先地位,为未来AI应用提供更高效的解决方案。
原文链接
2026年2月11日,三星电子首席技术官表示,内存芯片的强劲需求将持续至2027年,主要得益于人工智能推动。他透露,HBM4芯片制造良率良好,客户对其性能反响积极。三星计划本月晚些时候启动HBM4的大规模生产,并交付主要客户。该芯片采用1c工艺(第六代10纳米级DRAM技术)制造DRAM单元,基板芯片则使用4纳米工艺,数据处理速度高达每秒11.7Gbps,超越联合电子器件工程委员会规定的8Gbps标准。这一进展凸显三星在高端内存市场的技术领先地位。
原文链接
中芯国际联合CEO赵海军在2月11日的业绩交流会上表示,AI需求将持续推动算力和存储技术发展,HBM缺货或在未来几年内持续,但制约因素将从晶圆生产转向后端测试环节。他预测,存储器产能将在设备交付后(快则4个月,慢则9个月)逐步增加,新增产能将优先用于消费类产品。这可能促使中间商释放囤货,从而在今年第三季度带动手机、电脑等消费市场,特别是中低端手机市场的反转。赵海军同时指出,当前行业对AI算力需求旺盛,但长期规划尚不明确。
原文链接
2026年2月9日,研究机构Semianalysis发布报告,将美光在英伟达下一代AI芯片Vera Rubin中的HBM4市场份额下调至0%。该机构指出,目前未见英伟达订购美光HBM4的迹象,并预测SK海力士和三星电子将分别占据英伟达HBM4供应量的70%和30%。Vera Rubin是英伟达正在开发的下一代Blackwell AI芯片,预计将成为首款采用HBM4的芯片。这一调整表明美光可能在高端存储市场面临更大竞争压力,而SK海力士与三星则进一步巩固其市场地位。
原文链接
三星电子计划最早于本月第三周开始量产HBM4芯片,用于英伟达下一代人工智能计算平台Vera Rubin。此决定是在通过英伟达认证测试后,结合Vera Rubin的上市计划综合考量得出。业界预计,英伟达可能在下月的年度开发者大会(GTC)上首次展示搭载三星HBM4的相关产品。这一进展显示了三星在高性能存储领域的技术实力及与英伟达的深度合作,或为AI计算领域带来新突破。(韩联社)
原文链接
1月27日,SK海力士宣布将独家为微软Maia 200供应HBM3E芯片。据悉,Maia 200搭载的HBM3E内存总容量达216GB,配备六个12层HBM3E内存模块,每个模块容量为36GB。这一合作凸显了SK海力士在高性能存储领域的技术优势,同时也表明微软对先进AI硬件的持续投入。(TheElec)
原文链接
摩根大通最新研究报告指出,高带宽存储器(HBM)市场自2023年起进入第四年上升周期,预计增长将持续至2027年。报告强调,人工智能(AI)和高性能计算(HPC)需求激增推动HBM技术重要性提升,其在AI资本支出与收入中的占比不断攀升,成为存储行业增长的核心驱动力。此外,HBM结构性短缺可能延续至2028年,进一步凸显其长期供需紧张态势。该研究聚焦亚太地区存储行业,揭示了HBM在未来数年的关键市场地位。
原文链接
1月17日,被称为“HBM之父”的韩国KAIST学者Kim Jung-Ho在论坛研讨会上预测,HBF高带宽闪存的商业化进程将比HBM更快。他指出,存储厂商在HBM开发中积累了技术经验,同时AI发展推动了对更大容量存储的需求。目前,SK海力士、三星电子和闪迪正合作推进HBF标准化,预计其带宽将超1638GB/s,容量达512GB。SK海力士计划本月展示HBF早期版本,而三星与闪迪目标是在2027年底至2028年初将其应用于英伟达、AMD等公司的AI XPU。HBF的大规模应用预计将在HBM6发布后实现,Kim Jung-Ho比喻HBM与HBF的关系为书房与图书馆,强调两者在容量和延迟上的差异,并呼吁软件优化以减少HBF写入次数。
原文链接
加载更多
暂无内容