综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
4月1日,被誉为“HBM之父”的韩国学者金正浩表示,AI计算主导权正从GPU向内存转移。随着AI迈向智能体时代,内存成为关键瓶颈,“上下文工程”需处理海量多模态数据,内存带宽与容量可能需提升100至1000倍,甚至百万倍。当前HBM技术难以满足需求,他看好HBF(高带宽闪存)技术,其通过堆叠NAND闪存实现容量跃升。金正浩预测,AI产业权力格局将向内存倾斜,未来系统将以超大容量内存为核心。SK海力士提出的“H3架构”结合HBM与HBF,HBF作为二级扩展存储只读数据。预计HBF工程样品将在2027年前后面世,谷歌、英伟达等厂商或于2028年采用,三星与SK海力士可能再次竞争。
原文链接
摩根大通最新研究报告指出,高带宽存储器(HBM)市场自2023年起进入第四年上升周期,预计增长将持续至2027年。报告强调,人工智能(AI)和高性能计算(HPC)需求激增推动HBM技术重要性提升,其在AI资本支出与收入中的占比不断攀升,成为存储行业增长的核心驱动力。此外,HBM结构性短缺可能延续至2028年,进一步凸显其长期供需紧张态势。该研究聚焦亚太地区存储行业,揭示了HBM在未来数年的关键市场地位。
原文链接
在2026年CES展会期间,英伟达CEO黄仁勋针对‘是否用SRAM取代HBM’的行业热点发表看法。他承认SRAM在特定任务中速度极快,但指出其容量瓶颈使其难以满足现代AI模型需求,仅能支持HBM系统百分之一的模型规模。黄仁勋强调,AI工作负载多样化且不可预测,专用硬件如纯SRAM方案易因任务变化导致资源闲置。相比之下,HBM虽成本高,却能灵活适应算法和模型架构的变化,确保硬件长期高效利用。他还表示,开放模型整合更多上下文和模态后,内存需求同样激增,因此英伟达坚持HBM路线以保留‘可选性’,应对快速迭代的AI技术挑战。
原文链接
1月6日,SK海力士宣布在CES 2026期间,于美国拉斯维加斯威尼斯人会展中心设立专属展馆,展示面向AI的下一代存储器解决方案。展会首日,公司首次推出下一代HBM产品“16层48GB HBM4”,并同步展出12层36GB HBM3E及搭载该产品的全球客户AI服务器GPU模块。此外,SK海力士还将展示低功耗内存模组SOCAMM2,专为AI服务器设计。本次展会将持续至1月9日,全面呈现公司在高性能存储领域的最新成果。
原文链接
在AI算力需求推动下,高带宽存储器(HBM)成为存储领域的核心突破口,其制造工艺复杂,对半导体设备要求严苛。2025年四季度以来,全球存储市场持续上涨,HBM市场规模飙升,预计到2030年年复合增长率达33%。国产半导体设备商抓住机遇,在刻蚀、沉积、键合、检测等关键环节实现突破,如盛美上海、北方华创、拓荆科技等企业推出多款适配HBM工艺的设备。尽管国产化率不足5%,但国内企业已构建起覆盖HBM全产业链的设备供给能力,加速国产HBM芯片产业化进程。未来,政策、产业和技术协同发力,国产设备商将持续缩小国际差距,助力我国半导体产业升级突围。
原文链接
12月10日消息,内存条价格涨幅超100%,超越金条成为热门“理财产品”。威刚董事长称内存全面缺货,局面罕见。存储芯片自去年减产后库存见底,涨价早有预兆。AI推动高级形态HBM(高带宽内存)需求激增,其带宽远超普通内存和显卡。英伟达等巨头疯狂扫货,OpenAI等项目紧盯供应动态。涨价影响波及手机、电脑、汽车等领域,消费级显卡或涨20%-30%,智能手机存储成本占比升至18%-25%,PC厂商库存仅够两个月,2026年可能断供。L3级自动驾驶存储成本占比升至25%。预计涨价潮将持续至2027年新产能释放。
原文链接
2025年11月3日,SK海力士宣布正在研发包括HBM、AI-DRAM和AI-NAND在内的新型存储产品,并公布内存产品发展路径图。为推动技术进步,SK海力士深化与多家科技巨头的合作:与英伟达携手推进AI制造技术,与台积电共同开发下一代HBM基片,同时与闪迪合作促进高带宽闪存(HBF)市场的国际标准化。这一系列动作表明SK海力士正积极布局AI存储领域,强化其在全球市场的竞争力。
原文链接
财联社9月5日讯,SK海力士在2023年第二季度蝉联全球DRAM市场占有率第一,份额从第一季度的36.9%升至39.5%,连续两个季度超越三星电子。得益于DRAM合约价格上涨和HBM出货量增加,SK海力士销售额达122.26亿美元,领先三星电子超19亿美元。三星电子市占率从34.4%降至33.3%,与SK海力士差距扩大至6.2个百分点。SK海力士占据全球HBM市场超50%份额,主要客户包括英伟达等科技巨头,预计今年营业利润将达30万亿-33万亿韩元。
原文链接
2025年8月,HBM(高带宽存储芯片)技术成为AI算力竞争的核心。中国加速HBM国产替代,从原预计与全球领先水平相差8年缩短至4年左右。长鑫存储已量产HBM2,计划年底完成HBM3验证,并于2027年量产HBM3E。与此同时,SK海力士、三星和美光正迈向HBM4,英伟达则开始自行设计HBM基础裸片,预计2027年量产,推动定制化与架构融合创新。中国厂商在技术上快速追赶,但仍面临设备国产化率低等挑战。此外,英伟达布局HBM5时代,提交了“存储近计算”专利,预计2029年推出。随着AI模型对存储需求激增,HBM的突破将决定未来AI芯片领域的竞争格局。
原文链接
华为计划于8月12日在2025金融AI推理应用落地与发展论坛上发布AI推理领域的突破性技术成果。据《科创板日报》报道,该成果有望降低中国AI推理对HBM(高带宽内存)技术的依赖,提升国内AI大模型推理性能,并完善中国AI推理生态的关键部分。此前,华为在AI推理领域已有显著进展,例如2025年3月与北京大学联合发布的DeepSeek全栈开源推理方案。此外,华为与科大讯飞合作实现了国产算力上MoE模型的大规模跨节点专家并行集群推理,使推理吞吐提升3.2倍,端到端时延降低50%。这一系列技术突破标志着华为在AI推理领域的持续领先地位。
原文链接
加载更多
暂无内容