综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2026年3月4日,据TrendForce集邦咨询最新调查显示,随着生成式AI的兴起,数据中心对高速传输需求激增。传统机柜内短距传输的铜缆方案在传输密度和节能方面面临挑战。相比之下,Micro LED CPO方案单位传输能耗更低,整体功耗仅为铜缆方案的5%,具备显著节能优势,有望成为光互连替代方案,开启数据中心互连新局。
原文链接
2025年12月,博通CEO陈福阳在财报电话会议上表示,硅光子学和共封装光学(CPO)短期内不会在数据中心发挥实质性作用,强调现有技术路径尚未触顶。多家行业巨头如Arista、Credo等也认为,CPO虽是未来趋势,但目前仍需依赖可插拔光模块及铜互联技术,预计CPO小规模测试将在2027年开始,大规模部署或延至2028-2029年。当前AI基础设施瓶颈已从算力转向互联能力,但LPO、AEC等过渡方案因成本低、可靠性高,正持续分流CPO的应用空间。行业共识显示,CPO的全面落地需等待现有技术达到物理与经济极限,这一时刻尚未到来。
原文链接
6月16日消息,韩国KAIST和TB级互联与封装实验室共同预测了未来十年AI GPU加速卡的发展趋势。当前最先进的HBM3E已实现最大288GB,而即将推出的HBM4预计可达384GB至432GB。未来HBM5可能达到400-500GB,HBM6达1.5-1.9TB,HBM7更将突破5-6TB。NVIDIA Rubin系列预计明年推出,单卡功耗达2200W;到2029年的Feyman系列,功耗将升至4400W。若按此趋势发展,2035年新一代GPU功耗或超15000W。如此高的功耗引发担忧,数据中心能源需求或将大幅增加。
原文链接
AI芯片的高功耗和发热量正引发冷却技术革命。据统计,全球数据量从2015年的10EB增长至2025年的175ZB,边缘AI需平衡性能、功耗与成本。GPU功率密度是CPU的四倍,如Nvidia H100芯片功耗达700W,数据中心升级迫在眉睫。台积电推出3DVC技术,通过立体化设计提升散热效率,可降低3nm芯片温度15°C。液冷技术成为主流,Flex公司提供直接芯片液体冷却模块,IBM则采用嵌入式微通道相变冷却技术。英伟达发布Blackwell芯片,搭配DGX GB200 SuperPod服务器,采用液冷MGX封装,性能大幅提升。
原文链接
10月23日,荣耀正式发布MagicOS 9.0操作系统,宣称是“行业首个搭载智能体的个人化全场景AI操作系统”。此次升级中,荣耀引入了全新MagicOS大模型家族,支持端云资源灵活调配和不同设备灵活部署。其中,特别引入了30亿参数的大语言模型,仅在中高端系列设备上支持,加载速度提升了77%,出词速度提升了500%,并且功耗降低了80%。此外,该大模型使内存占用减少了1.6GB,存储占用减少了1.8GB,进一步提升了设备性能。此次升级显著增强了MagicOS的智能化水平和用户体验。
原文链接
Intel在9月4日正式发布了全新的酷睿Ultra 200V系列处理器,这是其低功耗处理器Lunar Lake家族中的最新一代产品。酷睿Ultra 200V系列在性能上实现了显著提升,AI性能相比前代提高了1843%,并带来了50%的功耗降低。该系列处理器采用了4个Lion Cove架构的P核和4个...
原文链接
加载更多
暂无内容