今日,《科创板日报》报道,人工智能公司DeepSeek在AI开源社区Hugging Face发布了全新模型DeepSeek-Prover-V2-671B。该模型参数量高达6710亿,是Prover-V1.5的升级版,采用更高效的safetensors文件格式并支持多计算精度,便于快速训练与部署。其架构基于DeepSeek-V3,运用MoE混合专家模式,含61层Transformer层及7168维隐藏层,支持超长上下文,最大位置嵌入达16.38万,可高效处理复杂数学证明任务。此外,模型通过FP8量化技术优化推理效率,减小模型体积。此模型的发布标志着深度学习领域的重要进展,值得关注。
原文链接
本文链接:https://kx.umi6.com/article/18038.html
转载请注明文章出处
相关推荐
换一换
DeepSeek发布Prover-V2模型 参数量达6710亿
2025-04-30 20:46:01
华为盘古 Ultra-MoE-718B-V1.1 正式开源并开放下载,模型权重与技术细节全面公开
2025-10-16 17:57:55
DeepSeek-Prover-V2-671B 新模型开源发布
2025-04-30 19:50:58
Meta发布开源大模型Llama 4,首次采用“混合专家”架构
2025-04-06 06:46:52
百亿参数人类基因组通用基础模型发布
2025-10-23 20:16:19
月之暗面将完成数亿美元融资
2025-10-24 10:36:59
英伟达宣布正与优步合作推进自动驾驶汽车研发
2025-10-24 09:34:47
田渊栋被裁后新offer排到法国!原来Llama 4.5训完后被卸磨杀驴了
2025-10-24 09:29:01
KTransformers入选计算机系统顶会、与主流框架合作,趋境&清华让「异构」成为推理新范式
2025-10-23 10:01:08
字节跳动推出3D生成大模型
2025-10-23 16:11:27
OpenAI 挖走“快捷指令”原创团队,将为 ChatGPT 打造 Mac 桌面级 AI
2025-10-24 07:25:57
100 万块 TPU、1GW 容量,Anthropic 与谷歌云正式达成百亿美元算力合作
2025-10-24 10:33:37
马斯克:特斯拉 Optimus 机器人将成为“令人难以置信的外科医生”
2025-10-24 11:34:35
531 文章
283517 浏览
24小时热文
更多
-
2025-10-24 12:40:26 -
2025-10-24 12:39:31 -
2025-10-24 12:39:22