
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
标题:模拟光学计算机:AI推理能效提升100倍
人工智能(AI)和组合优化推动了科学研究与工业应用的发展,但其高能耗对数字计算的可持续性提出了挑战。现有新型计算系统通常只擅长AI或优化任务,且需频繁进行高能耗的数字转换,效率受限。微软英国剑桥研究院团队提出了一种“模拟光学计算机”(Analog ...
原文链接
8月26日,在2025中国算力大会上,中国信息通信研究院联合华为数据存储、科大讯飞、浪潮、曙光、沐曦、清微智能及三大运营商等企业,共同成立“先进存力AI推理工作组”。该工作组旨在推动我国AI推理领域进入“存算协同、生态共建”新阶段,促进行业技术合作与生态发展。这一举措或将为我国人工智能产业发展注入新动力,并进一步巩固我国在全球AI领域的竞争力。
原文链接
8月13日,美国加州初创公司Rivos被曝正寻求4亿至5亿美元融资,其总融资额或超8.7亿美元,成为未量产芯片初创公司中融资最高的之一。AI推理市场利润惊人,2023年规模达158亿美元,预计到2030年将增至906亿美元。英伟达虽占据主导地位,但推理成本大幅下降与市场需求增长吸引众多科技巨头和初创公司入局。AWS、OpenAI等通过自研芯片或合作降低对英伟达依赖,而初创公司如Rivos和Groq则通过差异化技术切入市场。Groq已筹集超10亿美元,并与沙特达成15亿美元芯片协议,探索边缘推理需求。随着生成式AI发展,英伟达的垄断地位面临挑战,科技界或将迎来颠覆性变革。
原文链接
2025年8月13日,在2025金融AI推理应用落地与发展论坛上,华为发布AI推理创新技术UCM(推理记忆数据管理器),并计划于9月正式开源。UCM通过先进的KV Cache系统和分级管理策略,显著提升推理效率,扩大上下文窗口,降低Token推理成本,缓解对HBM高带宽内存的依赖。华为将与中国银联联合展示AI推理领域最新成果,并与信通院、清华大学等专家探讨优化大模型推理的技术前沿。华为数据存储产品线副总裁樊杰强调高质量数据与存储对AI发展的重要性,称高性能存储可大幅提升算力效率。UCM技术将在魔擎社区首发,并逐步贡献给主流推理引擎社区及生态伙伴。
原文链接
标题:GPT-5不是技术新范式,而是OpenAI加速产品化的战略拐点
如何评价OpenAI,决定了如何评价GPT-5。如果将OpenAI视为拥有10亿月活用户的大众产品公司,GPT-5是ChatGPT的一次重要升级。Routing能力的加入首次统一了产品线,类似Apple专注单一iPhone产品...
原文链接
华为于8月12日发布AI推理新技术UCM(推理记忆数据管理器),旨在通过分级管理KV Cache记忆数据,提升推理效率并降低成本。该技术计划在今年9月正式开源,首发于魔擎社区,并逐步贡献给主流推理引擎社区及存储厂商。IDC预测,到2027年,中国智能算力中推理算力占比将达72.6%。然而,当前AI推理面临推不动、推得慢、推得贵等问题,华为希望通过UCM解决这些痛点。目前,UCM已在中国银联等场景试点应用,并获讯飞等生态伙伴支持。华为还将基于UCM开发更多Agentic AI能力,推动模型智能向数据智能转型。
原文链接
8月12日,华为发布AI推理创新技术UCM(推理记忆数据管理器),该技术以KV Cache为中心,融合多类型缓存加速算法工具,分级管理推理过程中产生的记忆数据,可扩大上下文窗口,实现高吞吐、低时延的推理体验,并降低每Token推理成本。目前,UCM已在中国银联“客户之声”“营销策划”“办公助手”三大业务场景中试点应用并取得成果。华为计划于2025年9月将UCM开源,首发于魔擎社区,后续逐步贡献给主流推理引擎社区及Share Everything存储厂商和生态伙伴。
原文链接
华为于8月12日正式发布AI推理创新技术UCM(推理记忆数据管理器),该技术以KV Cache为核心,融合多类型缓存加速算法工具,分级管理推理过程中的KV Cache数据,显著提升推理效率并降低成本。UCM可扩大上下文窗口,实现高吞吐、低时延的推理体验。根据计划,华为将于2025年9月在魔擎社区开源UCM,并逐步贡献给业界主流推理引擎社区及Share Everything存储厂商与生态伙伴,推动行业技术共享与发展。(财联社)
原文链接
8月11日,英特尔为锐炫Pro系列GPU的Battlematrix项目发布LLM Scaler v1.0软件更新,显著优化AI推理能力。新版本基于vLLM框架,支持多GPU扩展与长序列高效推理,整体性能最高提升80%。针对32B KPI模型,40K序列长度下性能提升1.8倍;70B KPI模型提升高达4.2倍。此外,LLM Scaler引入分层在线量化、管道并行等功能,降低显存占用并提升扩展性。集成XPU Manager工具,增强企业级运维支持。英特尔计划本季度推出更稳固版本,并预计第四季度实现全功能落地,持续推动大模型推理平台升级。
原文链接
华为将于8月12日在2025金融AI推理应用落地与发展论坛发布AI推理领域的突破性技术成果。这项成果有望降低中国AI推理对HBM(高带宽内存)的依赖,提升国内大模型推理性能,完善AI推理生态。HBM是一种基于3D堆叠技术的先进DRAM解决方案,具备高带宽、低延迟等优势,已成为高端AI芯片的标配,但其产能紧张和出口限制促使国内厂商探索替代方案。此次发布或将推动中国在AI推理领域的自主创新与技术突破。
原文链接
加载更多

暂无内容