标题:一文看懂“存算一体”
存算一体(Compute In Memory,CIM)是近年来备受关注的技术概念,旨在将存储与计算功能融合,以解决传统冯·诺伊曼架构中“存算分离”带来的瓶颈问题。
在冯·诺伊曼架构中,存储和计算是独立模块,数据需要在两者之间频繁传输。然而,随着数据量的爆炸式增长,尤其是人工智能(AI)对计算效率的高要求,“存储墙”和“功耗墙”问题愈发突出。“存储墙”指数据传输速度跟不上处理器计算速度;“功耗墙”则是数据搬运过程中能耗过高,制约了整体效率。例如,在7nm工艺下,数据搬运功耗占比高达63.7%。
为应对这些挑战,业界提出了存算一体技术。该技术通过减少数据搬运次数,直接在存储单元内完成部分或全部计算任务,从而提升效率并降低能耗。实际上,人类大脑就是典型的存算一体结构,神经元同时负责存储和处理信息,具有极高能效比。
存算一体的研究始于20世纪60年代,但受限于技术水平,长期停留在理论阶段。进入21世纪后,随着芯片技术进步,这一领域取得突破。例如,2016年加州大学圣塔芭芭拉分校提出基于阻变存储器(RRAM)的深度学习架构PRIME,可将功耗降低约20倍、速度提升50倍。2023年,清华大学研发出全球首颗全系统集成的忆阻器存算一体芯片,再次引发关注。
根据技术实现方式,存算一体可分为三类:近存计算(Processing Near Memory,PNM)、存内处理(Processing In Memory,PIM)和存内计算(Computing in Memory,CIM)。近存计算通过封装技术缩短存储与计算单元的距离,适合AI、大数据等场景;存内处理在芯片制造中将两者集成,适用于语音识别等领域;存内计算则彻底消除存算界限,真正实现一体化,主要服务于AI计算中的矩阵运算需求。
目前,存算一体技术在存储介质上也有多样选择,包括易失性存储器(如SRAM、DRAM)和非易失性存储器(如RRAM、MRAM)。新型存储器如RRAM因具备高密度和低功耗特性,成为研究热点。
尽管存算一体前景广阔,但仍面临技术、生态和市场挑战。技术上需突破半导体工艺限制;生态上缺乏成熟EDA工具和软件支持;市场上则需与传统架构竞争,寻找适合的落地场景。
据预测,到2029年,全球存算一体市场规模将达到306.3亿美元,年复合增长率达154.7%。随着AI、物联网等领域的快速发展,存算一体有望成为未来计算架构的重要方向,值得持续关注。
.png)

-
2025-08-15 17:24:18
-
2025-08-15 17:23:20
-
2025-08-15 17:22:07