1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

在科技界的一次重大发现中,谷歌DeepMind的一篇发表于8月的论文揭示了其原理与OpenAI最新模型o1极为相似,引发业界关注。该论文强调,增加测试时(test-time)计算比仅仅扩大模型参数规模更为有效。通过提出计算最优(compute-optimal)测试时计算扩展策略,研究显示,一个规模较小的基础模型在某些任务上能够超越一个14倍大的模型。这一发现迅速在网络上引起热议,有人指出,这几乎就是o1工作原理的体现,暗示着OpenAI可能在抢先发布预览版时已知晓此原理。 同时,OpenAI对此作出快速反应,宣布将o1-mini的速度提高7倍,每日可提供50条服务,而o1-preview的使用频率提升至每周50条。这一举措进一步加速了技术竞争的步伐。 谷歌的研究成果揭示,使用计算最优策略在减少计算量的同时,能显著提升模型性能,最多可节省4倍资源。这与OpenAI的o1模型展现出的策略相吻合,即模型通过完善自身的思维过程、尝试不同策略并学习纠正错误来提升性能,且随着更多强化学习(训练时计算)和思考时间(测试时计算)的增加,性能持续提升。 然而,业界人士也注意到,硬件成为了目前唯一可能形成“护城河”的领域。随着英伟达在算力控制上的主导地位,以及谷歌和微软可能开发出的更优定制芯片,这场技术竞赛似乎正朝着硬件性能的极限冲刺。OpenAI最近曝光的首颗芯片,采用了台积电最先进的A16埃米级工艺,旨在为Sora视频应用提供支持,再次凸显了硬件创新在大模型竞争中的重要性。 总的来说,这场围绕大模型的技术竞赛不仅在模型本身上展开激烈的角逐,还在硬件领域寻求新的突破,以期在竞争中占据优势。

原文链接
本文链接:https://kx.umi6.com/article/6409.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
英国政府与谷歌达成合作,力争 2030 年前为 10 万名公务员提升 AI 技能
2025-07-09 18:08:28
大模型再「战」高考:从一本直升 985
2025-06-27 09:05:45
小红书开源首个大模型 预训练未使用合成数据
2025-06-10 09:46:30
24小时热文
更多
扫一扫体验小程序