1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

2025年6月27日,腾讯开源基于专家混合(MoE)架构的大语言模型混元-A13B,总参数量达800亿,激活参数为130亿。同日,摩尔线程率先完成该模型在全功能GPU的深度适配与高效支持。测试结果显示,Hunyuan-A13B在多个代码和数学任务中取得最高分数,并在多项任务中达到与Qwen3-A22B模型相当的水平。摩尔线程持续支持开源社区,此前已实现对多个大模型的Day-0支持,助力开发者基于国产GPU进行AI应用创新。

原文链接
本文链接:https://kx.umi6.com/article/20925.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
美国对DeepSeek下手了 不得以任何形式下载、安装或使用:多国跟进设限
2025-02-01 09:17:52
跟上 ChatGPT 及 Gemini 步伐,马斯克 xAI 旗下 Grok 增加“记忆”功能
2025-04-17 15:40:40
一场没有“罗永浩”的直播,为百度AI正名
2025-06-23 10:21:50
24小时热文
更多
扫一扫体验小程序