2025年6月27日,腾讯正式发布并开源混元-A13B大模型,该模型基于专家混合(MoE)架构,总参数800亿、激活参数130亿,在数学推理和逻辑任务上表现优异,甚至在极端条件下仅需1张中低端GPU即可部署。用户可通过Github、HuggingFace等平台下载使用。模型支持快慢两种思考模式,兼顾效率与准确性,适用于智能体应用及复杂指令响应,预训练数据达20万亿词元,优化了计算资源分配,为个人开发者和中小企业提供高效解决方案。
原文链接
本文链接:https://kx.umi6.com/article/20868.html
转载请注明文章出处
相关推荐
.png)
换一换
腾讯发布新一代大模型“混元Turbo”:推理成本下降50% 效率提升100%
2024-09-05 14:06:45
腾讯大笔资金加码AI 曝一业务关停 相关视频号已被注销 官网显示“当前服务升级维护中”
2025-09-05 12:21:09
腾讯等来了“破壁人”
2025-02-23 13:00:57
腾讯最新财报:总营收1845亿,AI成为新基因
2025-08-14 09:50:04
AI产品烧钱竞赛
2025-04-09 10:41:04
腾讯研发全球首个大熊猫模型:实时识别、统计、分析大熊猫行为并生成报告
2024-10-26 22:40:50
荣幸,小小的Get笔记居然被腾讯举报了
2025-07-23 18:55:33
腾讯多个产品正在探索接入DeepSeek
2025-02-16 11:25:04
消息称腾讯向英伟达采购数十亿元规模H20芯片
2025-03-13 18:30:53
腾讯2026青云计划正式启动,首次开放课题资源库,探索校企合作新模式
2025-06-13 16:10:01
马化腾旁边坐了一个年轻人
2025-02-20 14:20:36
晨星:腾讯接入DeepSeek或将提升微信长期增长潜力
2025-02-18 15:34:06
前微软亚研院视觉专家胡瀚加入腾讯 负责混元多模态大模型
2025-01-08 15:42:57
491 文章
179944 浏览
24小时热文
更多

-
2025-09-06 20:38:03
-
2025-09-06 19:37:51
-
2025-09-06 16:37:17