标题:OpenAI的命门,决定了大模型公司的未来
如果Scaling Law是提升大模型能力的关键标尺,那么“算力成本控制”就是行业发展的基石。2025年初,DeepSeek因大幅降低推理和训练算力成本而在开源社区爆火,其成功秘诀在于MoE架构的应用,这种架构能有效减少算力消耗。然而,OpenAI在GPT-5中推出的“路由”功能却成为一场“降本增笑”的翻车事件。尽管回滚了部分问题并允许用户手动切换模型,但GPT-5仍因路由功能未能匹配用户预期与模型能力而饱受批评。
为什么OpenAI冒着风险强推路由功能?原因有二:一是随着模型数量增加,用户难以选择合适的模型;二是从算力成本角度出发,推理模型与非推理模型的算力差异可能达5~6倍,延迟甚至相差60倍以上。通过路由识别简单任务并分配到低消耗模型,可显著降低算力成本。对于服务数亿用户的OpenAI来说,路由功能直接关系到商业模式的可持续性。
然而,为大模型打造高效的路由功能难度极高。这一问题涉及多目标优化,包括质量、延迟、成本等。DeepSeek尝试通过混合推理模型提高效率,虽然速度更快、输出更精简,但也暴露出稳定性问题。这表明,无论是OpenAI还是DeepSeek,在优化“深度思考”调度上都面临巨大挑战。
与此同时,OpenAI对算力的需求持续增长,正推进代号为Stargate的基础设施扩张计划,并计划在印度建设数据中心。“AI成本悖论”推动了算力需求的上升,也对路由功能提出了更高要求。Sam Altman的目标是2025年底上线超过100万片GPU,长远愿景则是“一亿GPU量级”。在推理单价下降、任务复杂度上升的背景下,高效调度“深度思考”能力,将成为大模型公司在系统效率、商业效率和用户体验上领先的关键。
(本文来自微信公众号:直面AI,作者:胡润,编辑:王靖)
-
2025-10-25 08:14:19 -
2025-10-24 22:57:14 -
2025-10-24 21:54:02