综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
11月24日,AMD联合IBM与AI初创公司Zyphra发布首个完全基于AMD硬件训练的大型混合专家(MoE)模型ZAYA1。该模型在IBM云上完成训练,采用1024块AMD MI300X GPU及ROCm软件平台,集群性能超750 PFLOPs。ZAYA1预训练使用14万亿tokens数据,创新引入CCA注意力机制和改进线性路由技术,显著提升计算效率与模型表现。基准测试显示,其综合性能媲美Qwen3系列,并在数学与STEM推理任务中接近专业版本。团队计划后续发布完整后训练版本及详细评测报告。
原文链接
加载更多
暂无内容