2023年6月27日,腾讯混元大模型家族发布新成员——混元-A13B模型并开源。该模型是业界首个13B级别的MoE混合推理开源模型,总参数达800亿,激活参数130亿,可在极端条件下仅用1张中低端GPU卡部署。模型通过MoE架构提升推理效率与计算性能,支持快慢两种思考模式,适用于不同任务需求。同时,腾讯开源了两个新数据集ArtifactsBench和C3-Bench,用于代码评估和Agent场景测试。在数学、科学和逻辑推理任务中表现优异,已在GitHub和腾讯云上线。
原文链接
本文链接:https://kx.umi6.com/article/20862.html
转载请注明文章出处
相关推荐
.png)
换一换
DeepSeek-V3低调发布后 业内震惊之余再次怀疑硅谷模式
2025-03-25 12:55:22
MiniMax发布全球首个混合架构开源模型M1 称强化训练成本仅53万美金
2025-06-17 19:29:56
昆仑万维发布并开源 Skywork-R1V 3.0,多模态推理能力逼近人类专家水平
2025-07-09 11:04:18
Altman对话YC总裁:OpenAI的开源模型将远超期待
2025-06-23 10:30:02
多家地方算力平台接入阿里通义千问QwQ-32B
2025-03-18 17:55:18
杨植麟被梁文锋叫醒了!Kimi新模型发布即开源,1T参数全线SOTA
2025-07-12 13:50:53
4090单卡跑满血版DeepSeek-R1,清华团队开源项目再破大模型推理门槛
2025-02-12 13:26:11
Qwen3真香!通义App满血接入,一手实测在此
2025-04-30 19:02:05
字节跳动豆包大模型团队开源MoE架构优化技术,训练成本节省40%
2025-03-10 18:50:46
GRPO在《时空谜题》中击败o1、o3-mini和R1
2025-03-27 16:59:27
腾讯混元 0.5B、1.8B、4B、7B 模型开源发布,消费级显卡即可运行
2025-08-04 15:58:47
前谷歌CEO:千万不要低估中国的AI竞争力
2025-05-10 12:07:51
Kimi 16B胜GPT-4o!开源视觉推理模型:MoE架构,推理时仅激活2.8B
2025-04-10 13:47:48
474 文章
167343 浏览
24小时热文
更多

-
2025-09-06 20:38:03
-
2025-09-06 19:37:51
-
2025-09-06 16:37:17