综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
斯坦福、UC 伯克利等机构联合发布SOTA推理模型OpenThinker-32B,仅用114k数据就与DeepSeek-R1-32B打成平手。该模型在数学、代码和科学多个基准测试中表现出色,性能接近DeepSeek-R1-Distill-32B。团队使用OpenThoughts-114k数据集并通过验证流程训练模型,公开了模型权重、数据集及训练代码。OpenThinker-32B在AWS SageMaker集群上训练90小时,累计使用2,880个H100小时。此模型的开源推动了AI推理模型的发展,为社区提供宝贵资源。
原文链接
加载更多
暂无内容