
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
在2025年人工智能计算大会上,浪潮信息发布元脑HC1000和元脑SD200两大AI服务器产品,显著优化智能体产业化中的速度与成本问题。元脑SD200将DeepSeek-R1模型推理延迟降至8.9ms,创造端到端推理新纪录,并实现超线性扩展率。元脑HC1000则将百万Token推理成本降至1元,单卡及系统成本分别降低60%和50%。两者通过创新架构设计,解决了通信延迟、资源利用率低等问题,为多智能体协同和复杂任务推理提供高效算力支持。浪潮信息首席AI战略官刘军指出,未来AI计算需从通用转向专用架构,以应对系统规模、电力压力和算效不平衡等挑战。
原文链接
2025年8月,浪潮信息推出新一代AI超节点服务器“元脑SD200”,支持同时运行DeepSeek R1、Kimi K2等四大国产开源模型。该服务器采用3D Mesh开放架构和远端GPU虚拟映射技术,将64张卡融合为统一内存的超节点,实现4TB显存与64TB内存资源池,满足超万亿参数大模型推理需求。其在全参推理中性能超线性扩展,DeepSeek R1推理性能提升3.7倍。元脑SD200基于开放算力模组(OCM)和开放加速模块(OAM)设计,兼容多种计算框架,支持多厂商加速卡协同运行,降低迁移成本,推动智能平权。浪潮信息称,这一系统化创新旨在应对Agentic AI时代的多模型协同与通信挑战,为AI基础设施提供高效、开放的解决方案。
原文链接
加载更多

暂无内容