综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
12月26日,国产大模型DeepSeek推出DeepSeek-V3,这是一个采用混合专家(Mixture-of-Experts, MoE)架构的强大语言模型,拥有671B的MoE和37B的激活参数,在14.8万亿个高质量token上预训练。
DeepSeek-V3的训练时间仅为2.788M H800...
原文链接
加载更多
暂无内容