1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
无预训练模型拿下ARC-AGI榜三!Mamba作者用压缩原理挑战Scaling Law
2025年12月,Mamba作者Albert Gu团队发布新研究CompressARC,挑战传统Scaling Law。该研究基于最小描述长度(MDL)理论,通过仅76K参数且无预训练的模型,在ARC-AGI-1基准测试中解决20%的问题,获得ARC Prize 2025第三名。CompressARC不依赖训练集,仅用单个样本运行,成功将谜题压缩为最短程序表达,揭示其本质规则。研究采用变分自编码器原理和类Transformer架构,结合高度定制的操作实现高效压缩。实验表明,该方法在推理阶段用2000步训练正确解决20%评估集谜题,证明智能可源于压缩而非大规模数据。论文一作Isaac Liao为CMU博士生,研究方向包括MDL、元学习等。
月光编码师
12-16 15:45:19
ARC-AGI
CompressARC
最小描述长度
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序