
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
4月30日,DeepSeek推出数学定理证明专用模型DeepSeek-Prover-V2,参数规模达671B,miniF2F测试通过率达88.9%,显著优于前代V1.5及月之暗面的Kimina-Prover(通过率80.7%)。DeepSeek-Prover-V2基于强化学习和子目标分解技术,延续其模型矩阵同步进化策略。此前,梁文锋与杨植麟曾在2月论文中“撞车”,双方均聚焦Transformer架构的注意力机制。当前,DeepSeek面临阿里巴巴通义千问Qwen3(参数量1/3,性能超越R1)和百度文心4.5 Turbo的竞争压力;而月之暗面的Kimi则需应对腾讯元宝的用户增长冲击,后者一季度投流费用达14亿元。DeepSeek正加速研发R2和V4版本,但市场对其依赖华为昇腾芯片存疑。业内呼吁中国大模型产业需多元竞争,而非一家独大。
原文链接
近日,深度学习模型DeepSeek-Prover-V2发布,包含7B和671B参数两种版本。该模型通过递归强化学习提升数学推理能力,在多项基准测试中表现出色。671B版本在MiniF2F-test上达到88.9%的通过率,显著优于现有开源模型。论文指出,模型通过冷启动数据合成及强化学习技术,将非形式化推理与形式化证明结合,实现高效数学证明。此外,7B小模型在特定任务中表现优异,解决了一些671B未完成的问题。DeepSeek-Prover-V2已在Hugging Face和GitHub开源,未来目标是攻克IMO级别难题。
原文链接
DeepSeek放大招!新模型DeepSeek-Prover-V2专注于数学定理证明,刷新多项高难度基准测试记录。在普特南测试中,该模型成功解答49道题,远超目前排名第一的Kimina-Prover(仅解出10题)。而未优化的DeepSeek-R1仅解出1题,令人期待R2的表现。
论文中特别提到“通...
原文链接
4月30日,深度求索(DeepSeek)在Hugging Face上发布DeepSeek-Prover-V2-671B新模型。该模型专注于形式化数学推理,基于DeepSeek-V3-0324,采用递归定理证明管道生成初始数据。DeepSeek推出671B参数的DeepSeek-Prover-V2-671B和7B参数的DeepSeek-Prover-V2-7B两款模型,以及ProverBench数据集。团队通过分解复杂定理为子目标,并利用7B模型处理子目标证明,结合DeepSeek-V3的思维链生成强化学习数据。最终,671B版本在MiniF2F-test数据集上达到88.9%通过率,在PutnamBench数据集中解决问题49个。ProverBench数据集包含325个数学问题,覆盖高中竞赛及本科数学领域,推动AI数学推理能力的评估与应用。
原文链接
DeepSeek开源新模型,数学推理能力大提升
五一假期前,DeepSeek发布惊喜——DeepSeek-Prover-V2在Hugging Face上线,同步提供模型卡与示例代码。该版本包括两个模型:DeepSeek-Prover-V2-7B(基于V1.5,支持32K上下文输入)和DeepSe...
原文链接
今日,《科创板日报》报道,人工智能公司DeepSeek在AI开源社区Hugging Face发布了全新模型DeepSeek-Prover-V2-671B。该模型参数量高达6710亿,是Prover-V1.5的升级版,采用更高效的safetensors文件格式并支持多计算精度,便于快速训练与部署。其架构基于DeepSeek-V3,运用MoE混合专家模式,含61层Transformer层及7168维隐藏层,支持超长上下文,最大位置嵌入达16.38万,可高效处理复杂数学证明任务。此外,模型通过FP8量化技术优化推理效率,减小模型体积。此模型的发布标志着深度学习领域的重要进展,值得关注。
原文链接
4月30日,AI模型DeepSeek-Prover-V2-671B在Hugging Face开源发布。该模型由DeepSeek推出,参数量达6710亿,据推测是Prover-V1.5的升级版本。它采用更高效的safetensors文件格式,并支持BF16、FP8、F32等多种计算精度,有助于提升训练和部署效率。目前,DeepSeek尚未公开其具体性能数据。开源地址:
原文链接
加载更多

暂无内容