1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
直逼 DeepSeek-R1-32B,UC 伯克利等开源全新 SOTA 推理模型 OpenThinker-32B
斯坦福、UC 伯克利等机构联合发布SOTA推理模型OpenThinker-32B,仅用114k数据就与DeepSeek-R1-32B打成平手。该模型在数学、代码和科学多个基准测试中表现出色,性能接近DeepSeek-R1-Distill-32B。团队使用OpenThoughts-114k数据集并通过验证流程训练模型,公开了模型权重、数据集及训练代码。OpenThinker-32B在AWS SageMaker集群上训练90小时,累计使用2,880个H100小时。此模型的开源推动了AI推理模型的发展,为社区提供宝贵资源。
未来笔触
02-13 17:19:50
OpenThinker-32B
开源
推理模型
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序