1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
摩尔线程率先支持腾讯混元-A13B 模型,完成全功能 GPU 深度适配
2025年6月27日,腾讯开源基于专家混合(MoE)架构的大语言模型混元-A13B,总参数量达800亿,激活参数为130亿。同日,摩尔线程率先完成该模型在全功能GPU的深度适配与高效支持。测试结果显示,Hunyuan-A13B在多个代码和数学任务中取得最高分数,并在多项任务中达到与Qwen3-A22B模型相当的水平。摩尔线程持续支持开源社区,此前已实现对多个大模型的Day-0支持,助力开发者基于国产GPU进行AI应用创新。
智慧轨迹
06-29 18:32:47
GPU
摩尔线程
腾讯混元-A13B
分享至
打开微信扫一扫
内容投诉
生成图片
业界首个:腾讯混元-A13B 模型发布并开源,极端条件 1 张中低端 GPU 卡即可部署
2023年6月27日,腾讯混元大模型家族发布新成员——混元-A13B模型并开源。该模型是业界首个13B级别的MoE混合推理开源模型,总参数达800亿,激活参数130亿,可在极端条件下仅用1张中低端GPU卡部署。模型通过MoE架构提升推理效率与计算性能,支持快慢两种思考模式,适用于不同任务需求。同时,腾讯开源了两个新数据集ArtifactsBench和C3-Bench,用于代码评估和Agent场景测试。在数学、科学和逻辑推理任务中表现优异,已在GitHub和腾讯云上线。
AI思维矩阵
06-27 17:10:33
MoE架构
开源模型
腾讯混元-A13B
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序