综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月28日,华为计算宣布河南昆仑技术有限公司基于昇腾AI研发出软FP8解决方案,用于DeepSeek V3.1大模型推理。该方案采用FP8精度格式,显存需求减半,硬件压力降低,同时相比INT8量化精度更高、数据范围更广,实现“精度无损、成本减半”。通过反量化算子将FP8权重转化为BF16格式计算,保障准确性并提升适配灵活性。单台KunLun G8600可流畅运行满血版DeepSeek V3.1,其他机型也能实现参数规模翻倍和并发能力提升。方案具备三大核心技术:自研反量化算子、推理效率提升32%、主流模型无缝兼容,并全面支持DeepSeek V3.1等FP8量化模型,扩展性强,可快速适配新模型。
原文链接
6月20日,在华为开发者大会2025(HDC 2025)上,华为云宣布基于CloudMatrix384超节点的新一代昇腾AI云服务全面上线。该服务首次实现384颗昇腾NPU与192颗鲲鹏CPU全对等互联,形成超强“AI服务器”。单卡推理吞吐量达2300 Tokens/s,支持混合专家MoE大模型推理,一个超节点可支持384个专家并行推理,算力使用率提升50%以上。超节点还可级联至最高16万卡的超大集群,支持训推算力一体部署。目前,昇腾AI云服务已为1300多家客户提供算力支持,新浪、硅基流动、面壁智能等企业均采用该服务优化AI推理与训练。此外,中国科学院利用该技术构建AI for Science科研大模型,摆脱对外部平台依赖。
原文链接
《科创板日报》30日消息,华为发布参数规模达7180亿的新模型——盘古Ultra MoE,该模型全流程基于昇腾AI计算平台训练。华为同步发布了盘古Ultra MoE的模型架构与训练方法技术报告。在训练方法上,华为首次在昇腾CloudMatrix 384超节点上实现大稀疏比MoE强化学习后训练框架,推动RL后训练进入超节点集群时代。此外,近期推出的盘古Pro MoE大模型(参数量720亿,激活160亿参数量)于2025年5月的大模型榜单SuperCLUE中,位列千亿参数量以内国内榜首。
原文链接
4月10日,华为云在安徽芜湖举办的生态大会上发布CloudMatrix 384超节点,并宣布已在芜湖数据中心规模上线。该超节点基于“一切可池化、一切皆对等、一切可组合”的创新架构,具备高密、高速、高效的特点,在算力、互联带宽、内存带宽等方面表现突出。华为云CEO张平安强调,CloudMatrix 384旨在加速行业智能化,通过昇腾AI云服务和盘古大模型助力各行业AI应用快速开发与落地。目前,昇腾AI云服务已适配160多个第三方大模型,赋能行业应用。此外,华为云持续深化行业解决方案,与合作伙伴共建生态,开发者规模已达1200万,伙伴数量超4.5万,共同推动千行万业智能化转型。
原文链接
中国联通旗下联通数据智能有限公司于1月8日宣布开源首个完全在国产昇腾AI平台上训练和推理的中文原生文生图模型——元景。该模型通过融合复合语言编码模块,提升了对中文长文本和特色词汇的理解能力,并解决了传统方法带来的中文信息损失问题。元景模型已在多个项目中成功应用,并在GitHub、Hugging Face等平台全面开源。
原文链接
加载更多
暂无内容