综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2月23日,北京大学电子学院研究员邱晨光团队宣布成功制备出迄今尺寸最小、功耗最低的铁电晶体管,将物理栅长缩减至1纳米极限。这一突破性成果有望大幅提升AI芯片的算力与能效,为相关领域提供核心器件支持。研究成果已在线发表于《科学·进展》。
原文链接
1月29日,清华大学、北京大学等机构联合研发的全柔性人工智能芯片FLEXI系列成果发表于《自然》期刊。该芯片基于低温多晶硅薄膜晶体管技术,厚度极薄且可随意弯折,采用存算一体架构,显著降低能耗与延迟。最小版本FLEXI-1面积仅31.12平方毫米,集成10628个晶体管,超低功耗模式下运行功耗仅55.94微瓦。测试显示,芯片可承受超4万次180度弯曲,性能无衰减,功耗波动小于3.5%,持续运行6个月保持稳定。其支持神经网络压缩与一键部署,单颗芯片可实现99.2%心律失常检测准确率,并在日常活动监测中动作分类准确率达97.4%。该成果为可穿戴健康监测、柔性机器人及脑机接口等场景提供核心计算支撑。
原文链接
2025年12月,博通CEO陈福阳在财报电话会议上表示,硅光子学和共封装光学(CPO)短期内不会在数据中心发挥实质性作用,强调现有技术路径尚未触顶。多家行业巨头如Arista、Credo等也认为,CPO虽是未来趋势,但目前仍需依赖可插拔光模块及铜互联技术,预计CPO小规模测试将在2027年开始,大规模部署或延至2028-2029年。当前AI基础设施瓶颈已从算力转向互联能力,但LPO、AEC等过渡方案因成本低、可靠性高,正持续分流CPO的应用空间。行业共识显示,CPO的全面落地需等待现有技术达到物理与经济极限,这一时刻尚未到来。
原文链接
2026年,AI服务器将迎来系统级升级的关键窗口期,硬件设计由GPU和ASIC驱动,英伟达、AMD等厂商推出更高性能平台。需求方面,仅英伟达平台的AI服务器机柜预计从2025年的2.8万台增至2026年的6万台,同时芯片功耗飙升至3700W,液冷和高效电源成标配,推高成本。鸿海、广达等代工厂产能全开,鸿海占据超50%市场份额,三大厂商业绩有望创新高。产业链全面升级,高端PCB、散热组件需求激增,价格翻倍增长。全球八大CSPs资本支出持续扩大,为昂贵的AI服务器提供需求支撑,2026年总投资将超6000亿美元,年增40%。
原文链接
8月20日,楷登电子宣布与英伟达合作,在硅前设计功耗分析领域取得突破。通过全新Dynamic Power Analysis(DPA)应用程序,可在数小时内完成十亿门级AI设计的硬件加速动态功耗分析,覆盖数十亿周期,精度高达97%。该技术助力AI、机器学习和GPU加速应用的开发人员设计更高能效系统,同时缩短产品上市时间。这一进展为半导体行业带来显著效率提升,推动AI相关芯片设计革新。
原文链接
8月16日,谷歌发布开源Gemma系列中最轻量模型Gemma 3 270M,参数规模2.7亿,专为端侧部署设计,支持手机、平板及Web环境。该模型在Q4_0量化格式下仅需约240MB RAM,适合低功耗设备,如Pixel 9 Pro运行25轮对话仅耗电0.75%。其擅长处理高频任务与隐私场景,如情感分析、实体识别等,还可用于开发专用小型模型。谷歌同步提供基于Hugging Face Transformers的微调教学资源,支持分类、信息抽取等定制化开发。目前已有开发者通过transformers.js实现浏览器端运行,验证了其在Web环境中的性能与可控性。
原文链接
标题:一文看懂“存算一体”
存算一体(Compute In Memory,CIM)是近年来备受关注的技术概念,旨在将存储与计算功能融合,以解决传统冯·诺伊曼架构中“存算分离”带来的瓶颈问题。
在冯·诺伊曼架构中,存储和计算是独立模块,数据需要在两者之间频繁传输。然而,随着数据量的爆炸式增长,...
原文链接
8月4日,腾讯混元发布四款小尺寸开源模型,参数量分别为0.5B、1.8B、4B和7B。这些模型可在消费级显卡上运行,适用于笔记本电脑、手机、智能座舱及智能家居等低功耗场景,并支持垂直领域的低成本微调。目前,所有模型已在Github和Huggingface等开源社区上线,同时获得Arm、高通、Intel、联发科技等多个消费级终端芯片平台的支持,便于开发者快速部署和应用。
原文链接
6月16日消息,韩国KAIST和TB级互联与封装实验室共同预测了未来十年AI GPU加速卡的发展趋势。当前最先进的HBM3E已实现最大288GB,而即将推出的HBM4预计可达384GB至432GB。未来HBM5可能达到400-500GB,HBM6达1.5-1.9TB,HBM7更将突破5-6TB。NVIDIA Rubin系列预计明年推出,单卡功耗达2200W;到2029年的Feyman系列,功耗将升至4400W。若按此趋势发展,2035年新一代GPU功耗或超15000W。如此高的功耗引发担忧,数据中心能源需求或将大幅增加。
原文链接
AI芯片的高功耗和发热量正引发冷却技术革命。据统计,全球数据量从2015年的10EB增长至2025年的175ZB,边缘AI需平衡性能、功耗与成本。GPU功率密度是CPU的四倍,如Nvidia H100芯片功耗达700W,数据中心升级迫在眉睫。台积电推出3DVC技术,通过立体化设计提升散热效率,可降低3nm芯片温度15°C。液冷技术成为主流,Flex公司提供直接芯片液体冷却模块,IBM则采用嵌入式微通道相变冷却技术。英伟达发布Blackwell芯片,搭配DGX GB200 SuperPod服务器,采用液冷MGX封装,性能大幅提升。
原文链接
加载更多
暂无内容