标题:大模型成本下降,是业内最大的幻觉
许多AI创业者坚信“模型会降价”,认为只要成本降低,收支就能平衡甚至盈利,生意便能持续。a16z也曾表示,大语言模型(LLM)成本正以每年10倍的速度下降。然而,Substack专栏《mandates》指出,这种说法并不准确。“成本下降10倍”仅适用于老旧性能的模型,而市场需求始终集中在最先进的模型上,其成本并未显著下降。
问题一:用户追逐顶级模型,旧版无人问津
虽然GPT-3.5的价格比过去便宜了10倍,但用户几乎都转向了更先进的模型,如GPT-4或Claude 3 Opus。市场对“最好模型”的需求从未改变,而这些模型的成本始终维持在高位。就像消费者不会因为1995年的本田思域便宜就放弃2025年的凯美瑞,AI用户也总是追求最高质量的服务。
问题二:Token消耗激增,成本失控
尽管单位Token价格未上涨,但模型消耗的Token数量却呈爆炸式增长。过去ChatGPT只需回答一句话,现在一次深度研究可能需要运行数小时,消耗数十万Token。随着AI能力提升,单次任务所需计算资源显著增加,导致整体成本飙升。这种趋势让固定订阅模式难以维系。
问题三:无限量套餐难以为继
Anthropic曾尝试推出每月200美元的Claude Code无限量套餐,但最终因Token消耗过高而取消。用户在应用内长时间使用AI,形成“循环Token”消耗模式,使得企业成本迅速膨胀。即使是灵活切换模型、优化负载等策略,也无法避免亏损。
问题四:按量定价陷入囚徒困境
按使用量计费本应是解决方案,但行业内普遍选择固定费率以争夺市场份额。结果,所有公司都补贴重度用户,陷入“比烂竞争”。尽管Cursor、Replit等公司清楚这种模式不可持续,但在风险投资支持下,它们仍选择短期扩张,将破产风险留给未来。
出路探索:寻找新商业模式
目前有三种可能方向:
1. 按使用量收费:理论上可行,但消费者偏好包月制,计量收费可能导致增长停滞。
2. 高切换成本服务:通过与大型企业合作,提供嵌入业务流程的高价值服务,获得稳定收入。
3. 垂直整合:类似Replit,将AI工具与其他技术服务捆绑销售,在非推理环节盈利。
结语
“模型明年会便宜10倍”的幻想忽视了一个事实:用户期望的回报远高于成本降幅。当前行业亟需新的商业模式,“新云厂商”或许是一个值得探索的方向。
.png)

-
2025-08-23 08:59:22
-
2025-08-23 08:59:00
-
2025-08-23 08:58:15