2025年6月27日,腾讯开源基于专家混合(MoE)架构的大语言模型混元-A13B,总参数量达800亿,激活参数为130亿。同日,摩尔线程率先完成该模型在全功能GPU的深度适配与高效支持。测试结果显示,Hunyuan-A13B在多个代码和数学任务中取得最高分数,并在多项任务中达到与Qwen3-A22B模型相当的水平。摩尔线程持续支持开源社区,此前已实现对多个大模型的Day-0支持,助力开发者基于国产GPU进行AI应用创新。
原文链接
本文链接:https://kx.umi6.com/article/20925.html
转载请注明文章出处
相关推荐
换一换
摩尔线程科创板IPO上会在即 联美控股收盘三连板 十余家上市公司互动易回复参股投资
2025-09-25 15:07:35
两个月斩获微软四笔订单 “英版甲骨文”或计划明年IPO
2025-10-16 00:43:21
DeepSeek突然拥抱国产GPU语言!对标CUDA替代Triton,华为Day0适配
2025-09-30 10:23:35
阿里云:采购寒武纪15万片GPU的消息不实,寒武纪股价跳水
2025-09-01 11:16:19
拿英伟达「开刀」,是中国GPU自主化的一步险棋
2024-12-10 20:03:36
重庆“英伟达”绝境逢生
2025-02-23 20:05:46
英伟达新GPU再王炸,也得靠蹭DeepSeek卖卡
2025-03-20 19:45:35
摩尔线程算力专区正式上线 AutoDL 平台,首次将国产 GPU 算力开放至 AI 开发一线
2025-05-22 08:21:47
NVIDIA AI芯片被疯抢!哪家大厂拥有最多GPU
2024-12-06 17:29:44
SemiAnalysis新鲜出炉:对这次DeepSeek事件的分析
2025-02-04 14:36:58
摩尔线程支持 DeepSeek 开源周“全家桶”
2025-03-02 10:30:14
摩尔线程大模型对齐研究获国际顶级学术会议认可:URPO 框架入选 AAAI 2026
2025-11-14 00:26:54
美国封锁吧!BAT三巨头纷纷抛弃NVIDIA 支持国产AI GPU
2025-05-31 15:07:08
590 文章
372584 浏览
24小时热文
更多
-
2025-12-08 22:52:38 -
2025-12-08 22:51:57 -
2025-12-08 22:51:33