综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
超越ZIP的无损压缩来了!华盛顿大学让大模型成为无损文本压缩器
当大语言模型生成海量数据时,存储问题愈发突出。为此,华盛顿大学SyFI实验室提出了一种创新方案:LLMc,利用大型语言模型(LLM)实现无损文本压缩。基准测试显示,LLMc在维基百科、小说、科学摘要等数据集上的压缩率优于传统工具(如ZI...
原文链接
单卡搞定Llama 3.1 405B,让大模型轻松瘦身!超强压缩工具包来了
近期,Llama-3.1登顶开源领域,其405B版本模型对资源提出了更高要求,高达900多GB的内存需求。为应对这一挑战,北航、商汤、南洋理工等团队联手研发出大模型压缩工具与基准LLMC,使一张80G A100显卡就能完成L...
原文链接
加载更多
暂无内容