综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
9月29日,阿里云在2025年云栖大会上宣布全新定位为“全球领先的全栈人工智能服务商”,并推出全球首款基于CXL 2.0技术的PolarDB数据库服务器。该产品突破了云原生数据库的内存与性能限制,实现低延迟、高带宽的远程内存访问,支持资源池化和弹性调度,降低运维成本。阿里云计划持续加大AI基础设施投入,未来算力预计指数级增长,并发布了包括通义旗舰模型Qwen3-Max在内的7款大模型,以及夸克AI创作平台“造点”。此外,阿里云强调数据处理的重要性,全面升级数据平台能力,支持多模态数据存储和自然语言控制分析。CXL技术作为新型高速互联标准,预计2028年全球市场规模达158亿美元,其生态正推动数据库行业变革。
原文链接
三星电子副总裁Kevin Yoon在GMIF 2025创新峰会上宣布,公司计划推出一系列AI存储产品。其中包括新一代CXL 3.1 CMM-D内存模块和512TB级PCIe 6.0固态硬盘,预计将在明后年发布。目前,三星已实现CXL 2.0 CMM内存的量产,而CXL 3.1/PCIe 6.0解决方案将于2026年推出。此外,2026年初发布的PCIe 6.0固态硬盘PM1763将在25W功耗下实现性能翻倍及能效提升60%。同时,三星正研发第七代Z-NAND技术,面向GIDS应用场景,可大幅提升吞吐量表现。
原文链接
《科创板日报》11日讯,SK海力士与Naver Cloud签署谅解备忘录,合作推动下一代AI内存解决方案的商业化。双方将重点测试CXL和PIM技术,计划在Naver Cloud的实际数据中心进行概念验证。这一合作旨在超越HBM技术,加速新型AI内存产品的研发与应用。 (Sedaily)
原文链接
标题:榨干GPU性能,中兴Mariana突破显存壁垒
正文:
大语言模型(LLM)在各行业的应用日益广泛,但推理效率与显存成本之间的矛盾愈发突出。KV Cache作为提升生成速度的核心技术,却因显存占用过高成为制约模型扩展和并发能力的瓶颈。如何高效扩展KV Cache存储空间,已成为AI领域的关...
原文链接
【摘要】
日本NAND Flash大厂铠侠计划在未来三年内投资360亿日元,开发专为AI设计的CXL(Compute Express Link)省电存储器。此项目预计于2030至2034年间实现商业化。值得注意的是,日本政府将对该项目提供最高达50%的费用补贴。该技术旨在提高存储器的能效,满足日益增长的人工智能应用需求。(《科创板日报》7日讯,据日经新闻报道)
此摘要保留了关键信息,包括投资金额、时间框架、技术类型及政府支持情况,符合新闻摘要的要求。
原文链接
加载更多
暂无内容