标题:中科院实现国产 GPU 上 76B 类脑大模型突破
正文:
近年来,Transformer 几乎垄断了大模型领域,但它在处理超长文本时计算量和内存消耗巨大,且行业严重依赖 NVIDIA 的 GPU 和 CUDA 生态。为突破这些限制,业界不断探索新方向。最近,中科院团队提出了一种全新类脑大模型 SpikingBrain,首次在国产 GPU 平台 MetaX 上成功训练出 76B 规模的模型,展现了新路径的可行性。
SpikingBrain 引入脉冲神经元、线性注意力和稀疏专家机制,在超长文本任务上实现了百倍加速。例如,SpikingBrain-7B 在处理 400 万 token 时,首个 token 生成延迟比传统 Transformer 快 100 倍,同时保持 69.15% 的稀疏激活率,大幅降低能耗。研究团队使用 1500 亿 token 数据训练了两个核心模型(7B 和 76B),在多项基准测试中接近甚至追平传统 Transformer。
实验完全基于国产 MetaX C550 GPU 集群完成,7B 模型达到 23.4% 的 FLOPs 利用率,证明该平台能高效支持大规模模型训练。为实现这一成果,团队对模型架构、训练方法和系统工程进行了全面优化:将全连接注意力替换为线性注意力,引入“按需放电”的脉冲神经元,并针对硬件环境重写算子库和分布式通信机制,解决了内存溢出与死锁问题。
此外,团队设计了一种基于转换的训练流程,将 Transformer 的成熟经验迁移到 SpikingBrain,克服了脉冲神经元“不可微”的难题。最终,模型不仅在数百张 GPU 上稳定运行,还通过稀疏专家机制进一步提升了性能。
SpikingBrain 的意义在于,它验证了类脑机制在大规模模型中的实用性,打破了 NVIDIA 硬件生态的垄断,并为降低大模型能耗提供了新思路。尽管类脑模型尚未完全成熟,但这一研究为行业开辟了新方向,展示了大模型发展的多样可能性。
.png)

-
2025-09-24 23:52:50
-
2025-09-24 23:51:53
-
2025-09-24 22:52:38