综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
11月21日,在2025AI容器应用落地与发展论坛上,华为发布并开源了AI容器技术Flex:ai。该技术由华为联合上海交大、西安交大和厦门大学共同研发,基于Kubernetes平台,通过对GPU、NPU等算力资源的精细化管理与智能调度,大幅提升算力利用率。针对小模型任务独占整卡导致资源浪费的问题,华为推出XPU池化框架,可将单张算力卡切分为多份虚拟单元,粒度精准至10%,提升利用率30%。此外,跨节点拉远虚拟化技术聚合空闲算力形成“共享算力池”,使通用服务器也能执行AI任务。Hi Scheduler智能调度器则实现异构算力全局最优调度。华为表示,Flex:ai旨在推动AI平民化,并已同步开源在魔擎社区,促进产学研合作与标准化建设。此前,英伟达曾以7亿美元收购类似技术公司Run:ai。
原文链接
2025年11月21日,华为发布全新AI容器软件Flex:ai。该产品通过算力切分技术,将单张GPU/NPU卡精细切分为多个虚拟单元,最小粒度达10%,实现单卡同时承载多AI工作负载,显著提升硬件资源利用率。Flex:ai还可聚合集群内空闲算力,形成“共享算力池”,支持全局调度与灵活分配,使GPU/NPU典型利用率从30%-40%提升至70%。其软硬件协同设计深度整合华为自研昇腾AI处理器,在性能功耗比上表现优异,并能统一管理英伟达GPU、昇腾NPU等异构算力资源,解决大模型训练的算力瓶颈问题。据悉,Flex:ai将在发布后同步开源于魔擎社区,推动技术共享与生态发展。
原文链接
11月21日,华为发布Flex:ai AI容器软件,通过算力切分技术将单张GPU/NPU卡切分为多份虚拟算力单元,切分粒度达10%,实现单卡同时承载多个AI工作负载。该技术还可聚合集群内各节点的空闲XPU算力,形成“共享算力池”,提升资源利用率。据悉,Flex:ai将在发布后同步开源至魔擎社区,为开发者提供更灵活的算力支持。(记者 黄心怡)
原文链接
华为定档11月21日在上海举办2025 AI容器应用落地与发展论坛,届时将发布并开源创新AI容器技术Flex:ai。该技术以“软件补硬件”为核心,旨在提升算力资源利用效率,解决AI产业发展瓶颈。目前行业GPU和NPU等算力资源利用率仅为30%-40%,而华为新技术可将其提升至70%,显著释放硬件潜能。通过统一管理英伟达、昇腾等算力资源,屏蔽硬件差异,为AI训练推理提供高效支撑。这一突破性技术备受关注,有望推动AI产业迈向新阶段。
原文链接
加载更多
暂无内容