1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
迄今尺寸最小功耗最低铁电晶体管问世
2月23日,北京大学电子学院研究员邱晨光团队宣布成功制备出迄今尺寸最小、功耗最低的铁电晶体管,将物理栅长缩减至1纳米极限。这一突破性成果有望大幅提升AI芯片的算力与能效,为相关领域提供核心器件支持。研究成果已在线发表于《科学·进展》。
幻彩逻辑RainbowLogic
02-24 13:48:49
功耗最低
尺寸最小
铁电晶体管
分享至
打开微信扫一扫
内容投诉
生成图片
我国科学家研发出能屈能伸的柔性AI芯片:最小55.94微瓦超低功耗
1月29日,清华大学、北京大学等机构联合研发的全柔性人工智能芯片FLEXI系列成果发表于《自然》期刊。该芯片基于低温多晶硅薄膜晶体管技术,厚度极薄且可随意弯折,采用存算一体架构,显著降低能耗与延迟。最小版本FLEXI-1面积仅31.12平方毫米,集成10628个晶体管,超低功耗模式下运行功耗仅55.94微瓦。测试显示,芯片可承受超4万次180度弯曲,性能无衰减,功耗波动小于3.5%,持续运行6个月保持稳定。其支持神经网络压缩与一键部署,单颗芯片可实现99.2%心律失常检测准确率,并在日常活动监测中动作分类准确率达97.4%。该成果为可穿戴健康监测、柔性机器人及脑机接口等场景提供核心计算支撑。
数码游侠
01-29 12:16:23
存算一体
柔性AI芯片
超低功耗
分享至
打开微信扫一扫
内容投诉
生成图片
CPO,过热了?
2025年12月,博通CEO陈福阳在财报电话会议上表示,硅光子学和共封装光学(CPO)短期内不会在数据中心发挥实质性作用,强调现有技术路径尚未触顶。多家行业巨头如Arista、Credo等也认为,CPO虽是未来趋势,但目前仍需依赖可插拔光模块及铜互联技术,预计CPO小规模测试将在2027年开始,大规模部署或延至2028-2029年。当前AI基础设施瓶颈已从算力转向互联能力,但LPO、AEC等过渡方案因成本低、可靠性高,正持续分流CPO的应用空间。行业共识显示,CPO的全面落地需等待现有技术达到物理与经济极限,这一时刻尚未到来。
阿达旻
12-25 18:53:11
CPO
互联技术
功耗
分享至
打开微信扫一扫
内容投诉
生成图片
2026年,AI服务器贵贵贵
2026年,AI服务器将迎来系统级升级的关键窗口期,硬件设计由GPU和ASIC驱动,英伟达、AMD等厂商推出更高性能平台。需求方面,仅英伟达平台的AI服务器机柜预计从2025年的2.8万台增至2026年的6万台,同时芯片功耗飙升至3700W,液冷和高效电源成标配,推高成本。鸿海、广达等代工厂产能全开,鸿海占据超50%市场份额,三大厂商业绩有望创新高。产业链全面升级,高端PCB、散热组件需求激增,价格翻倍增长。全球八大CSPs资本支出持续扩大,为昂贵的AI服务器提供需求支撑,2026年总投资将超6000亿美元,年增40%。
星际Code流浪者
12-12 09:40:33
AI服务器
GPU功耗
液冷散热
分享至
打开微信扫一扫
内容投诉
生成图片
楷登电子:与英伟达合作革新功耗分析 加速开发十亿门级AI设计
8月20日,楷登电子宣布与英伟达合作,在硅前设计功耗分析领域取得突破。通过全新Dynamic Power Analysis(DPA)应用程序,可在数小时内完成十亿门级AI设计的硬件加速动态功耗分析,覆盖数十亿周期,精度高达97%。该技术助力AI、机器学习和GPU加速应用的开发人员设计更高能效系统,同时缩短产品上市时间。这一进展为半导体行业带来显著效率提升,推动AI相关芯片设计革新。
智能维度跳跃
08-20 12:14:30
功耗分析
楷登电子
英伟达
分享至
打开微信扫一扫
内容投诉
生成图片
谷歌开源 Gemma 家族最轻量模型 Gemma 3 270M:2.7 亿参数可灵活用于 手机平板端侧及 Web 环境
8月16日,谷歌发布开源Gemma系列中最轻量模型Gemma 3 270M,参数规模2.7亿,专为端侧部署设计,支持手机、平板及Web环境。该模型在Q4_0量化格式下仅需约240MB RAM,适合低功耗设备,如Pixel 9 Pro运行25轮对话仅耗电0.75%。其擅长处理高频任务与隐私场景,如情感分析、实体识别等,还可用于开发专用小型模型。谷歌同步提供基于Hugging Face Transformers的微调教学资源,支持分类、信息抽取等定制化开发。目前已有开发者通过transformers.js实现浏览器端运行,验证了其在Web环境中的性能与可控性。
虚拟微光
08-16 16:27:24
Gemma 3 270M
低功耗设备
端侧部署
分享至
打开微信扫一扫
内容投诉
生成图片
一文看懂“存算一体”
标题:一文看懂“存算一体” 存算一体(Compute In Memory,CIM)是近年来备受关注的技术概念,旨在将存储与计算功能融合,以解决传统冯·诺伊曼架构中“存算分离”带来的瓶颈问题。 在冯·诺伊曼架构中,存储和计算是独立模块,数据需要在两者之间频繁传输。然而,随着数据量的爆炸式增长,...
虚拟织梦者
08-15 15:20:51
功耗墙
存储墙
存算一体
分享至
打开微信扫一扫
内容投诉
生成图片
腾讯混元 0.5B、1.8B、4B、7B模型发布
8月4日,腾讯混元发布四款小尺寸开源模型,参数量分别为0.5B、1.8B、4B和7B。这些模型可在消费级显卡上运行,适用于笔记本电脑、手机、智能座舱及智能家居等低功耗场景,并支持垂直领域的低成本微调。目前,所有模型已在Github和Huggingface等开源社区上线,同时获得Arm、高通、Intel、联发科技等多个消费级终端芯片平台的支持,便于开发者快速部署和应用。
Journeyman
08-04 16:02:12
低功耗场景
开源模型
腾讯混元
分享至
打开微信扫一扫
内容投诉
生成图片
AI GPU加速卡功耗失控!10年内超过15000W
6月16日消息,韩国KAIST和TB级互联与封装实验室共同预测了未来十年AI GPU加速卡的发展趋势。当前最先进的HBM3E已实现最大288GB,而即将推出的HBM4预计可达384GB至432GB。未来HBM5可能达到400-500GB,HBM6达1.5-1.9TB,HBM7更将突破5-6TB。NVIDIA Rubin系列预计明年推出,单卡功耗达2200W;到2029年的Feyman系列,功耗将升至4400W。若按此趋势发展,2035年新一代GPU功耗或超15000W。如此高的功耗引发担忧,数据中心能源需求或将大幅增加。
镜像现实MirageX
06-16 01:00:33
AI_GPU
HBM内存
功耗
分享至
打开微信扫一扫
内容投诉
生成图片
AI芯片「功耗悬崖」:大模型催生的冷却技术革命
AI芯片的高功耗和发热量正引发冷却技术革命。据统计,全球数据量从2015年的10EB增长至2025年的175ZB,边缘AI需平衡性能、功耗与成本。GPU功率密度是CPU的四倍,如Nvidia H100芯片功耗达700W,数据中心升级迫在眉睫。台积电推出3DVC技术,通过立体化设计提升散热效率,可降低3nm芯片温度15°C。液冷技术成为主流,Flex公司提供直接芯片液体冷却模块,IBM则采用嵌入式微通道相变冷却技术。英伟达发布Blackwell芯片,搭配DGX GB200 SuperPod服务器,采用液冷MGX封装,性能大幅提升。
AI创意引擎
05-02 10:54:23
AI芯片
冷却技术
功耗
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序