1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:Gemini 2.5弯道超车的背后

正文:去年,谷歌的Gemini还在追赶,而今年Gemini 2.5 Pro已在多项评测中全面领先。短短一年间,谷歌是如何实现逆袭的?《硅谷101》创始人泓君邀请了Energent.ai联合创始人Kimi Kong和HeyRevia创始人Shaun Wei,与两位前Google技术专家探讨Gemini成功的核心逻辑。

Kimi指出,Gemini 2.5 Pro的卓越表现得益于预训练、监督微调及强化学习对齐三大基础步骤的持续优化。尤其在过去一年,行业将更多精力投入到强化学习,特别是在“人类反馈”和“AI反馈”上的探索,如数学和编程任务中。Google通过多年积累的经验,结合强化学习的创新应用,实现了Gemini在编程、数学等高确定性任务中的出色表现。

在代码生成能力上,Anthropic的代码质量为何优于其他公司?Kimi认为,这源于Anthropic在预训练阶段大量投入高质量代码数据,同时在对齐阶段优先关注编程能力,但也可能导致其在其他能力上的平衡性略显不足。相比之下,Google更注重综合能力的发展。

Gemini的成功离不开几位关键人物。Jeff Dean擅长大规模预训练,Oriol Vinyals在强化学习领域贡献卓著,而Noam Shazeer则在自然语言处理上有深厚积累。三人强强联合,推动了模型能力的全面提升。此外,Google创始人Sergey Brin的回归激发了团队士气,为Gemini的快速崛起注入动力。

在价格竞争方面,Gemini的API成本仅为OpenAI的五分之一甚至十分之一。这得益于Google自研TPU生态、强大的基础设施以及软硬件一体化的优势,使其能够大幅降低运行成本。正如Kimi所说,这种成本优势不仅提升了竞争力,也为开发者提供了更低的接入门槛。

原文链接
本文链接:https://kx.umi6.com/article/19757.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
DeepSeek登《Nature》封面,梁文锋带队,首次回应争议
2025-09-18 13:54:10
清华刘知远团队论文:在严格可控环境下重新回答「强化学习能否教会大模型新能力」丨ICLR 2026
2026-02-09 19:27:01
中金:2026年大模型在强化学习、模型记忆、上下文工程等方面将取得更多突破
2026-02-05 08:39:59
OpenAI新模型被曝秘密训练中,o4会是什么样?
2025-06-10 18:54:49
微软和Google都找到了自己的AI重心
2025-05-27 11:25:00
我们让GPT玩狼人杀,它特别喜欢杀0号和1号,为什么?
2025-05-23 13:51:09
真正的AI竞争力,藏在大模型“后训练”这一步
2025-10-13 16:59:55
谷歌年度大招:所有AI模型全升级一遍!Gemini2.5大杯中杯霸榜前二,新版视频/图像模型亮相
2025-05-21 05:52:42
Google不革自己的命,AI搜索们也已经凉凉了?
2025-05-23 11:49:32
翁荔最新万字长文:Why We Think
2025-05-18 14:20:10
搜索引擎巨头确认:AI搜索将加入广告!
2025-11-02 21:44:52
缺数据也能拿SOTA?清华&上海AI Lab破解机器人RL两大瓶颈
2025-09-26 11:24:15
英伟达发布新 RL 范式:受 DeepSeek-R1 启发,重塑 AI 模型外部工具能力
2025-05-14 15:16:49
24小时热文
更多
扫一扫体验小程序