2023年6月27日,腾讯混元大模型家族发布新成员——混元-A13B模型并开源。该模型是业界首个13B级别的MoE混合推理开源模型,总参数达800亿,激活参数130亿,可在极端条件下仅用1张中低端GPU卡部署。模型通过MoE架构提升推理效率与计算性能,支持快慢两种思考模式,适用于不同任务需求。同时,腾讯开源了两个新数据集ArtifactsBench和C3-Bench,用于代码评估和Agent场景测试。在数学、科学和逻辑推理任务中表现优异,已在GitHub和腾讯云上线。
原文链接
本文链接:https://kx.umi6.com/article/20862.html
转载请注明文章出处
相关推荐
换一换
阿里开源电影级视频生成模型通义万相2.2
2025-07-28 21:20:36
腾讯发布并开源混元-A13B模型:极端条件仅1张中低端GPU卡即可部署
2025-06-27 17:17:05
开放全栈!超越π0,具身智能基础大模型迎来真·开源,开发者狂喜
2025-09-08 13:58:15
日经新闻称阿里通义千问已成日本AI开发基础
2025-05-12 14:34:34
群核科技升级空间智能战略,发布两款空间开源模型
2025-08-25 17:31:32
“开源王者”Llama4,却让DeepSeek们松了一口气
2025-04-07 08:47:00
宇树:开源机器人世界大模型!
2025-09-16 13:11:33
大模型首次直接理解代码图:不用 Agent 自动修 bug,登顶 SWE-Bench 开源模型榜单
2025-06-27 15:12:57
微博自研VibeThinker开源模型:训练成本仅7800美元
2025-11-18 15:27:09
中国AI开源模型下载量占比首次超过美国
2025-11-27 18:49:55
开源模型TOP5,被中国厂商包圆了
2025-10-15 17:36:49
美国“SPAC之王”查马斯:公司已转用Kimi K2
2025-10-11 19:32:28
智谱发布新一代开源模型 极速版最高达到200tokens/秒
2025-04-15 08:25:16
569 文章
336030 浏览
24小时热文
更多
-
2025-12-08 21:51:18 -
2025-12-08 21:49:12 -
2025-12-08 21:48:42