1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:开源模型真的更“浪费”token吗?

正文:
近期研究发现,像DeepSeek-R1等开源模型在回答问题时往往显得不够“节制”,尤其是在简单问题上,容易陷入过于复杂的思考。这种冗长的推理过程可能导致其单位token成本优势被抵消。

NousResearch团队的研究试图解答一个关键问题:开源模型是否比闭源模型消耗更多token?结果表明,在回答无需复杂推理的知识题时,DeepSeek-R1-0528消耗的token数量是基准水平的4倍;而在数学题或逻辑谜题中,这一差距缩小至2倍左右。这说明任务类型显著影响token消耗效率。

类似现象也被AI招聘公司Mercor的研究证实。在衡量大模型生产力的APEX-v1.0基准中,Qwen-3-235B和DeepSeek-R1的输出长度远超其他模型。尽管它们通过深度思考提升了准确性,但也付出了更高的token成本。

那么,开源模型是否经济?可以用一个公式概括:AI完成任务的收益 = token兑现的价值 - 单位token成本 × 消耗token数量。token兑现的价值取决于模型解决实际问题的能力及问题的重要性,而单位token成本则受硬件优化、算法改进等因素影响。

美国在降低单位token成本方面表现突出,例如英伟达自研HBM裸片、OpenAI与SK海力士合作开发高效芯片等。而中国开源社区更注重算法创新,如阿里巴巴的Qwen3-Next架构大幅提升了推理效率,DeepSeek V3.2-Exp则通过DSA机制降低了成本。

然而,token消耗过多的问题不容忽视。它不仅增加能耗,还可能导致响应时间延长,甚至限制模型处理复杂任务的能力。微软研究表明,软硬件优化可显著降低每次查询的能耗,但随着多模型和智能体的普及,token消耗仍可能成为瓶颈。

中美在token经济学上的路径已逐渐分岔。中国开源模型倾向于用更多token换取更高性能,而美国闭源模型则专注于降低成本。从DeepSeek R1到R1-0528,总token消耗持续上升;相比之下,Anthropic和OpenAI的模型迭代则更注重减少token使用。

综合来看,开源模型在低定价区间仍具成本优势,但在高定价场景下,尤其面对简单问题时,其经济性不再明显。结合中国的算力生态,开源模型的高token消耗可能进一步放大碳排放等环境问题。未来,AI的真正竞争力将取决于经济性——用尽可能少的token解决最有价值的问题。

原文链接
本文链接:https://kx.umi6.com/article/26430.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
OpenAI发布开源模型“王者归来”,DeepSeek剧情会反转吗
2025-08-06 12:31:08
DeepSeek昨天悄悄扔的炸弹,今天爆了
2025-08-22 17:51:00
DeepSeek 下一代技术提前曝光,梁文锋署名论文获 ACL 2025 最佳论文奖
2025-08-01 17:03:23
刚刚,OpenAI发布2款开源模型,手机笔记本也能跑,北大校友扛大旗
2025-08-06 07:23:51
对话朱啸虎:搬离中国,假装不是中国AI创业公司,是没有用的
2025-09-20 20:35:10
可能是目前效果最好的开源生图模型,混元生图3.0来了
2025-09-30 21:34:24
DeepSeek刷屏论文背后:除了梁文锋,还有一个18岁中国高中生,曾写出神级提示词
2025-09-19 11:14:40
别太相信DeepSeek
2025-08-14 18:02:41
DeepSeek:已在平台内对 AI 生成合成内容添加标识,用户不得恶意删除
2025-09-01 18:24:35
被AI「摩擦」的十天:一个普通人的上手记
2025-08-16 18:28:03
字节突然开源Seed-OSS,512K上下文主流4倍长度,推理能力刷纪录
2025-08-21 14:33:12
美国“SPAC之王”查马斯:公司已转用Kimi K2
2025-10-11 19:32:28
DeepSeek被曝开发AI智能体模型:能自主完成多步工作
2025-09-05 08:15:12
24小时热文
更多
扫一扫体验小程序