《科创板日报》10日讯,小红书开源首个大模型dots.llm1,该模型为1420亿参数的混合专家模型(MoE),在推理时仅激活140亿参数,从而在保证高性能的同时显著降低训练和推理成本。值得注意的是,dots.llm1在预训练阶段采用11.2万亿非合成数据,这使其在中英文、数学及对齐任务上的表现接近阿里Qwen3-32b。
原文链接
本文链接:https://kx.umi6.com/article/19964.html
转载请注明文章出处
相关推荐
换一换
阿里开源视觉理解模型Qwen3-VL
2025-09-24 14:43:41
华人AI大神霸气离职,一篇博客挑明中美大模型暗战
2025-10-11 10:14:30
华为昇腾 0Day 支持 DeepSeek-V3.2-Exp,面向开发者开源所有推理代码和算子实现
2025-09-29 20:14:51
美团发布并开源 LongCat-Flash-Chat 大模型:总参数 560B,AI 智能体任务表现突出
2025-09-01 11:16:10
阿里字节腾讯,集体重仓新风口
2025-10-17 14:18:54
开源模型TOP5,被中国厂商包圆了
2025-10-15 17:36:49
睿尔曼开源全球首个高质量、模态数量最多的真机数据集
2025-11-24 20:12:19
智谱与市城投集团合作发布杭州城投人工智能产业大模型项目(一期)建设成果
2025-09-15 20:01:43
“雷军千万年薪要挖”的 DeepSeek 罗福莉官宣加入小米 Xiaomi MiMo 大模型团队
2025-11-12 14:05:32
通义万相全新动作生成模型开源
2025-09-19 15:17:03
1300000000000000!谷歌每月Tokens消耗量曝光(别数了是千万亿)
2025-10-11 09:26:13
打破全球语言壁垒:Meta 推出支持 1600 种语言的语音识别系统并开源
2025-11-11 18:20:16
上海:推动医疗器械相关垂类大模型研发应用
2025-09-15 16:02:14
588 文章
327786 浏览
24小时热文
更多
-
2025-12-08 20:48:29 -
2025-12-08 20:47:34 -
2025-12-08 20:45:30