1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:1万tokens成大模型长文本“智商”分水岭

正文:
当上下文长度扩展至1万tokens,主流大模型的性能集体“失智”,且下降并非均匀,而是在某些节点出现断崖式下跌。例如,Claude Sonnet 4在1000tokens后准确率从90%降至60%,而GPT-4.1和Gemini 2.5 Flash则表现为下降后放缓再下降。最终,所有模型在1万tokens时准确率仅剩50%。这意味着,大模型处理长文本时的可靠性会因输入长度增加而显著下降,且不同模型的“失智”节点各异。

这是Chroma团队通过升级版“大海捞针”(NIAH)测试得出的结论。他们评估了包括GPT-4.1、Claude 4、Gemini 2.5和Qwen3等18个主流大模型,发现随着输入长度增加,模型性能普遍下降。研究还首次揭示,这种下降受语义特征、干扰信息及文本结构等因素影响,且不同模型对这些因素的敏感度存在差异。

实验设计了四项对照任务,核心原则是保持任务复杂度不变,仅调整输入长度。结果显示:
1. 输入长度是性能下降的核心变量,无论任务简单与否,长文本处理能力均受影响;
2. 针-问题语义相似度低或干扰信息多会加剧性能衰减;
3. 连贯文本比打乱结构更易导致性能下降;
4. 不同模型表现差异明显,但整体稳定性均较差。

例如,在针-问题相似度实验中,低相似度组在1万tokens时准确率仅为40%-60%,远低于高相似度组的60%-80%。干扰信息实验显示,加入多个干扰项后,模型准确率比基线低30%-50%。此外,连贯文本结构使部分模型准确率降至30%-40%,而打乱结构则维持在50%-60%。

尽管大模型的上下文窗口不断扩展,但其性能并非均匀一致。研究建议用户通过明确指令、保存上下文等方式缓解长文本处理中的缺陷。

Chroma团队专注于开发开源AI应用数据库,旨在简化LLM应用构建,并计划推出免费技术预览。代码已开源,感兴趣者可复现研究结果。

— 完 —

原文链接
本文链接:https://kx.umi6.com/article/21920.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
DeepSeek V3.2、GLM4.6等大模型即将发布
2025-09-29 17:14:30
Gartner首次发布大模型报告:火山引擎排名中国厂商第一
2025-11-20 12:17:36
中国AI云,开始「抢座次」了
2025-11-20 11:17:00
大模型“记性差一点”反而更聪明!金鱼损失随机剔除token,让AI不再死记硬背
2025-09-03 17:49:26
雷军宣布:小米AI人才招聘专项正式启动!
2026-03-30 16:59:23
亚马逊云科技发布多款大模型
2025-12-03 14:25:54
大模型又迎来重要玩家!美团首个开源大模型来了
2025-09-01 18:28:28
消息称腾讯大模型团队架构调整:前 OpenAI 研究员姚顺雨任要职,校招最高 2 倍薪资挖 AI 人才
2025-12-17 17:57:42
腾讯宣布升级大模型研发架构 前OpenAI研究员姚顺雨任要职
2025-12-17 17:58:49
清华孙茂松:对工业界而言,大厂可以Scaling,其他玩家重在垂直应用 | MEET2026
2025-12-21 10:35:20
字节对大模型方向加码期权激励 核心技术员工最高可获百万元
2025-09-03 15:50:37
美团 LongCat 大模型官方 App 发布:支持联网搜索,还可以发起语音通话
2025-11-03 14:22:48
宇树科技王兴兴:谁能把机器人用的大模型做出来 谁就是全世界最厉害的AI公司和机器人公司
2026-01-30 12:25:48
24小时热文
更多
扫一扫体验小程序