综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2026年3月,谷歌研究院发布论文介绍TurboQuant压缩算法,引发市场震动。该算法可将AI推理中关键的KV cache内存占用压缩至少6倍,且精度零损失,直接冲击存储芯片行业。受此影响,美光和西部数据股价大跌。TurboQuant结合PolarQuant与QJL技术,实现3-bit量化,无需额外存储开销,同时提升计算速度达8倍。测试显示其在问答、代码生成等任务中表现优异,性能全面领先。专家评价称这是‘谷歌的DeepSeek时刻’,表明更少资源也能实现高质量AI推理。不过,该技术目前仅为实验室成果,仅适用于推理阶段,尚未大规模部署。论文将在ICLR 2026正式亮相。
原文链接
近日,美国普林斯顿大学和斯坦福大学的研究团队开发出一种名为CALDERA的新压缩算法,能够有效精简大型语言模型(LLM)的数据量,从而实现“瘦身”。该算法不仅能保护数据隐私,节省能源并降低运营成本,还使得LLM在手机和笔记本电脑上的应用更加高效。此技术突破对于推动LLM在更广泛设备上的应用具有重要意义。(200字)
原文链接
加载更多
暂无内容