2025年6月27日,腾讯开源基于专家混合(MoE)架构的大语言模型混元-A13B,总参数量达800亿,激活参数为130亿。同日,摩尔线程率先完成该模型在全功能GPU的深度适配与高效支持。测试结果显示,Hunyuan-A13B在多个代码和数学任务中取得最高分数,并在多项任务中达到与Qwen3-A22B模型相当的水平。摩尔线程持续支持开源社区,此前已实现对多个大模型的Day-0支持,助力开发者基于国产GPU进行AI应用创新。
原文链接
本文链接:https://kx.umi6.com/article/20925.html
转载请注明文章出处
相关推荐
换一换
售价1.47万的GPU“核弹”登场!黄仁勋证明英伟达没被“干翻”,终极目标物理AI世界
2025-01-07 13:01:49
摩尔线程算力专区正式上线 AutoDL 平台,首次将国产 GPU 算力开放至 AI 开发一线
2025-05-22 08:21:47
新国产GPU「曦望」,刚融了10个亿
2025-06-30 18:45:32
业界首个:腾讯混元-A13B 模型发布并开源,极端条件 1 张中低端 GPU 卡即可部署
2025-06-27 17:10:33
摩尔线程开源 MT-MegatronLM 和 MT-TransformerEngine 两大 AI 框架
2025-03-17 18:54:18
又一国产GPU独角兽开启IPO 沐曦启动上市辅导
2025-01-16 10:56:44
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
2025-06-16 17:12:53
AMD 举办 Advancing AI 2025 大会:Instinct MI350 系列 GPU 发布,35 倍推理性能提升
2025-06-13 02:41:38
“拖后腿”的芯片技术
2024-11-09 12:45:37
摩尔线程科创板IPO将于9月26日上会
2025-09-19 19:20:38
Meta CEO 扎克伯格:今年将大幅扩充 AI 团队,年底 GPU 数量将超 130 万
2025-01-24 23:49:17
马斯克的xAI计划大规模扩建AI超级计算机
2024-12-05 12:07:13
印度启动创建本土 AI 基础模型计划:目标训出“有文化特色”的模型
2025-01-30 17:33:29
539 文章
279333 浏览
24小时热文
更多
-
2025-10-24 01:20:07 -
2025-10-24 00:18:56 -
2025-10-23 21:15:29