1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

2025年12月,Mamba作者Albert Gu团队发布新研究CompressARC,挑战传统Scaling Law。该研究基于最小描述长度(MDL)理论,通过仅76K参数且无预训练的模型,在ARC-AGI-1基准测试中解决20%的问题,获得ARC Prize 2025第三名。CompressARC不依赖训练集,仅用单个样本运行,成功将谜题压缩为最短程序表达,揭示其本质规则。研究采用变分自编码器原理和类Transformer架构,结合高度定制的操作实现高效压缩。实验表明,该方法在推理阶段用2000步训练正确解决20%评估集谜题,证明智能可源于压缩而非大规模数据。论文一作Isaac Liao为CMU博士生,研究方向包括MDL、元学习等。

原文链接
本文链接:https://kx.umi6.com/article/30299.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
OpenAI o3是AGI吗?
2024-12-21 14:58:33
见证历史!AI想的科研idea,真被人类写成论文发表了
2024-12-18 13:29:20
AI版三个臭皮匠!ChatGPT/Gemini/DeepSeek合体拿下AGI测试最高分
2025-07-08 17:49:27
悬赏800万的超难测试集,被GPT-4o实现新SOTA,准确率已达50%
2024-06-18 15:31:25
中杯o3成OpenAI“性价比之王”?ARC-AGI测试结果出炉:得分翻倍、成本仅1/20
2025-04-23 11:51:39
o3挑战ARC-AGI,遇见大网格就懵圈?英国工程师:ARC-AGI不适合大模型
2024-12-26 16:36:28
GPT-4o攻破ARC-AGI无法被挑战的神话,71%准确率成新SOTA
2024-06-20 14:13:43
无预训练模型拿下ARC-AGI榜三!Mamba作者用压缩原理挑战Scaling Law
2025-12-16 15:45:19
Dexmal原力灵机提出ManiAgent,用多智能体协作重构机器人操控
2025-12-16 15:47:47
何恺明组三位本科生领衔!持续聚焦Flow模型,突破归一化流生成效率瓶颈
2025-12-15 15:44:36
阿里发布通义万相2.6系列模型
2025-12-16 15:52:19
智谷天厨完成数千万元A轮融资,啟赋资本投资
2025-12-16 12:36:27
蚂蚁数科宣布开源数据分析智能体技术,当前登顶BIRD
2025-12-15 18:52:49
24小时热文
更多
扫一扫体验小程序