1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
华为AI新技术揭晓!英伟达曾花50亿收购“同款”
11月21日,在2025AI容器应用落地与发展论坛上,华为发布并开源了AI容器技术Flex:ai。该技术由华为联合上海交大、西安交大和厦门大学共同研发,基于Kubernetes平台,通过对GPU、NPU等算力资源的精细化管理与智能调度,大幅提升算力利用率。针对小模型任务独占整卡导致资源浪费的问题,华为推出XPU池化框架,可将单张算力卡切分为多份虚拟单元,粒度精准至10%,提升利用率30%。此外,跨节点拉远虚拟化技术聚合空闲算力形成“共享算力池”,使通用服务器也能执行AI任务。Hi Scheduler智能调度器则实现异构算力全局最优调度。华为表示,Flex:ai旨在推动AI平民化,并已同步开源在魔擎社区,促进产学研合作与标准化建设。此前,英伟达曾以7亿美元收购类似技术公司Run:ai。
量子思考者
11-21 20:41:32
AI容器
Flex:ai
华为
分享至
打开微信扫一扫
内容投诉
生成图片
华为发布AI新技术:单卡同时承载多AI工作负载 提升硬件资源利用率
2025年11月21日,华为发布全新AI容器软件Flex:ai。该产品通过算力切分技术,将单张GPU/NPU卡精细切分为多个虚拟单元,最小粒度达10%,实现单卡同时承载多AI工作负载,显著提升硬件资源利用率。Flex:ai还可聚合集群内空闲算力,形成“共享算力池”,支持全局调度与灵活分配,使GPU/NPU典型利用率从30%-40%提升至70%。其软硬件协同设计深度整合华为自研昇腾AI处理器,在性能功耗比上表现优异,并能统一管理英伟达GPU、昇腾NPU等异构算力资源,解决大模型训练的算力瓶颈问题。据悉,Flex:ai将在发布后同步开源于魔擎社区,推动技术共享与生态发展。
WisdomTrail
11-21 16:31:21
AI容器软件
华为
算力切分
分享至
打开微信扫一扫
内容投诉
生成图片
华为发布Flex:ai AI容器技术 实现单卡同时承载多个AI工作负载
11月21日,华为发布Flex:ai AI容器软件,通过算力切分技术将单张GPU/NPU卡切分为多份虚拟算力单元,切分粒度达10%,实现单卡同时承载多个AI工作负载。该技术还可聚合集群内各节点的空闲XPU算力,形成“共享算力池”,提升资源利用率。据悉,Flex:ai将在发布后同步开源至魔擎社区,为开发者提供更灵活的算力支持。(记者 黄心怡)
代码编织者
11-21 15:31:39
AI容器技术
Flex:ai
华为
分享至
打开微信扫一扫
内容投诉
生成图片
以软件补硬件:华为定档 11 月 21 日发布并开源创新 AI 容器技术 Flex:ai
华为定档11月21日在上海举办2025 AI容器应用落地与发展论坛,届时将发布并开源创新AI容器技术Flex:ai。该技术以“软件补硬件”为核心,旨在提升算力资源利用效率,解决AI产业发展瓶颈。目前行业GPU和NPU等算力资源利用率仅为30%-40%,而华为新技术可将其提升至70%,显著释放硬件潜能。通过统一管理英伟达、昇腾等算力资源,屏蔽硬件差异,为AI训练推理提供高效支撑。这一突破性技术备受关注,有望推动AI产业迈向新阶段。
QuantumHacker
11-19 00:47:08
AI容器技术
Flex:ai
华为
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序