1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

32倍压缩率下性能反超25个点!破解长文本压缩「翻车」难题 | ICLR 2026

现有上下文压缩方法在高压缩率下常“翻车”,例如将32K文本压缩到1K时性能骤降。这是因为压缩过程中容易保留大量“高度相似却重复”的内容,导致“信息内卷”:看似相关,实则堆砌冗余token,误导模型生成错误答案。

阿里巴巴未来生活实验室团队指出,问题根源在于压缩目标的错位——现有方法只关注“相关性”,却忽略“多样性”。多个相似token被保留时,不仅无法叠加信息量,反而相互干扰,使模型迷失于冗余信息中。

为此,团队提出创新框架COMI(COarse-to-fine context compression via Marginal Information Gain),通过“边际信息增益”(MIG)指标与粗到细压缩策略,在32倍高压缩率下精准保留多样化的关键证据链。论文已被ICLR 2026接收。

边际信息增益:智能标尺
MIG指标定义为:
MIG = 本单元与查询的相关性 – 与其他单元的最大相似度
它如同“信息价值计分卡”,既奖励与问题相关的片段,又惩罚重复内容,从而实现相关性与冗余性的双维度权衡。

粗到细自适应压缩
COMI采用两阶段策略:
1. 粗粒度组重分配:动态调整各段压缩率,优先保留信息密度高、冗余度低的片段。
2. 细粒度token融合:基于MIG加权融合token,避免关键细节被稀释,确保压缩后表示紧凑且多样化。

实验表明,COMI在NaturalQuestions等数据集上表现卓越。以Qwen2-7B为基座,32倍压缩下EM分数达49.15,比次优基线高出近25个点。此外,COMI还能提升原生支持256K上下文的Qwen3-4B性能,证明高质量压缩不仅是“减负”,更是“提纯”。

效率与效果兼得
在32倍压缩下,COMI推理速度提升2倍以上,且压缩开销轻量,适合工业级部署。

总结
COMI通过边际信息增益和粗到细策略,将压缩目标从“保留相关片段”升级为“保留相关且多样化信息”,破解了高压缩率下的性能瓶颈,为大模型轻量化和实用化迈出重要一步。

论文标题:
COMI: Coarse-to-fine Context Compression via Marginal Information Gain
论文链接:
https://arxiv.org/abs/2602.01719
代码链接:
https://github.com/Twilightaaa/COMI

原文链接
本文链接:https://kx.umi6.com/article/33108.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
32倍压缩率下性能反超25个点!破解长文本压缩「翻车」难题 | ICLR 2026
2026-02-23 15:40:40
三个和尚没水喝!OpenAI星际之门搁浅,一年过去压根没动工
2026-02-23 15:34:57
智平方完成10亿元B轮融资 估值超过百亿元
2026-02-24 13:47:44
OpenAI调整“星际之门”项目策略:暂缓自建 转向与甲骨文及软银深度合作
2026-02-24 13:54:26
豪赌AI却让普通员工买单 Meta据称连续两年削减股权激励
2026-02-21 22:58:57
男子用AI鉴定玉石8个月收入上百万 准确率达95%
2026-02-20 15:31:12
8500亿美元!OpenAI刷新AI公司估值纪录,领先第二名2.2倍
2026-02-20 18:37:00
Mistral CEO警告:超过50%的企业软件可能会被AI取代
2026-02-19 16:30:29
研究表明AI可预测到主动型基金71%交易
2026-02-24 23:25:32
韩国三大电视台因版权问题起诉OpenAI
2026-02-23 19:09:59
诚恳认错坚决不改 为什么AI总扯谎:原因揭开
2026-02-24 13:46:39
多款eVTOL航空器、人形机器人亮相武汉
2026-02-24 15:52:41
马斯克设想从月球电磁弹射AI卫星
2026-02-24 20:07:49
24小时热文
更多
扫一扫体验小程序