1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

2025年6月27日,腾讯开源基于专家混合(MoE)架构的大语言模型混元-A13B,总参数量达800亿,激活参数为130亿。同日,摩尔线程率先完成该模型在全功能GPU的深度适配与高效支持。测试结果显示,Hunyuan-A13B在多个代码和数学任务中取得最高分数,并在多项任务中达到与Qwen3-A22B模型相当的水平。摩尔线程持续支持开源社区,此前已实现对多个大模型的Day-0支持,助力开发者基于国产GPU进行AI应用创新。

原文链接
本文链接:https://kx.umi6.com/article/20925.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
景嘉微国产 GPU 完成 DeepSeek R1 系列模型适配
2025-02-12 13:30:38
摩尔线程携手硅基流动实现DeepSeek-V3大模型高性能推理
2026-01-21 20:31:18
DeepSeek新论文再次引发热议,它说了什么?
2025-02-19 16:53:40
腾讯重仓的GPU公司要上市了!燧原科技IPO获受理,拟募资60亿
2026-01-23 14:59:46
摩尔线程发布AI算力笔记本MTT AIBOOK 预售价9999元
2025-12-20 12:49:52
今年,还要抢GPU?
2025-02-10 12:11:07
摩尔线程的野心,不藏了
2025-12-21 23:07:27
苹果终转向商用GPU?
2025-03-28 11:44:12
扎克伯格:我们的慈善机构无需更多实验室与人员,“只想要 GPU”
2025-11-11 20:24:38
摩尔线程及中介机构回复首轮审核问询函
2025-09-05 20:24:47
xAI Grok 3 仅用 8 分钟破解美国本科生最难数赛题,马斯克要用 100 万 GPU 反超“星际之门”
2025-02-24 13:25:45
微软机房大量英伟达GPU开始吃灰……
2025-11-04 13:13:42
Solidigm 成立 AI 中央实验室,H200、B200 GPU 模拟真实工作负载
2025-10-11 10:07:14
24小时热文
更多
扫一扫体验小程序