1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

超越ZIP的无损压缩来了!华盛顿大学让大模型成为无损文本压缩器

当大语言模型生成海量数据时,存储问题愈发突出。为此,华盛顿大学SyFI实验室提出了一种创新方案:LLMc,利用大型语言模型(LLM)实现无损文本压缩。基准测试显示,LLMc在维基百科、小说、科学摘要等数据集上的压缩率优于传统工具(如ZIP和LZMA),且性能不逊于其他闭源系统。该项目已开源,主要作者为上海交大本科生Yi Pan。

LLMc的核心机制基于“排序编码”。LLM根据上下文预测下一个词元,并生成概率分布列表,真实词元通常排名靠前。LLMc存储这些排名而非词元本身,因排名多为小整数,占用空间极小。解压时,系统通过相同LLM重现概率分布,读取排名还原原始文本。LLM在此过程中充当共享“密码本”,将自然语言的高维分布转化为结构化概率信息,从而实现高效压缩。

然而,LLMc也面临挑战:
1. 效率问题:LLM推理复杂度与序列长度呈二次方关系,长序列受内存带宽限制。LLMc通过分块处理缓解此问题。
2. 吞吐量低:依赖大规模推理,速度远低于传统算法。
3. 数值稳定性:需使用特殊内核及整数编码确保解压确定性。
4. 应用范围有限:目前仅针对自然语言,未来可探索扩展至图像、视频等领域。

参考链接:LLMc项目博客
GitHub地址:LLMc开源代码

原文链接
本文链接:https://kx.umi6.com/article/26475.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
从AI Agent再到Agentic workflow,6个类别25篇论文全面了解智能体工作流
2024-07-25 21:59:40
英伟达发布 Llama-3.1-Nemotron-Ultra-253B-v1 模型,推动 AI 高效部署
2025-04-12 14:49:27
苹果计划在2026年推出Siri改版 增加更多自研人工智能
2024-11-22 05:52:14
26 年前的古董 Win98 电脑成功运行大语言模型:搭载奔腾 II 处理器、128MB 内存
2024-12-30 09:11:33
研究显示:AI 解 6x6 数独都费劲,解释决策时还答非所问
2025-08-07 10:46:45
分析 1400 万篇论文发现:“AI 味”非常浓,中国使用 LLM 比例高达 35%
2024-06-28 09:15:03
ChatGPT 在航天器自主控制模拟竞赛中获佳绩,展现大语言模型新潜力
2025-07-07 22:36:28
英伟达发布新 RL 范式:受 DeepSeek-R1 启发,重塑 AI 模型外部工具能力
2025-05-14 15:16:49
单卡搞定Llama 3.1 405B,让大模型轻松瘦身!超强压缩工具包来了
2024-08-02 17:05:22
o3来了,通用人工智能真的触手可及吗?
2025-01-07 09:58:26
AI热潮和互联网浪潮,区别在哪?
2024-06-26 15:51:46
微软 CTO 坚信大型语言模型的“规模定律”依然奏效,未来可期
2024-07-16 18:58:12
苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?
2025-09-03 18:49:23
24小时热文
更多
扫一扫体验小程序