1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

2025年12月,Mamba作者Albert Gu团队发布新研究CompressARC,挑战传统Scaling Law。该研究基于最小描述长度(MDL)理论,通过仅76K参数且无预训练的模型,在ARC-AGI-1基准测试中解决20%的问题,获得ARC Prize 2025第三名。CompressARC不依赖训练集,仅用单个样本运行,成功将谜题压缩为最短程序表达,揭示其本质规则。研究采用变分自编码器原理和类Transformer架构,结合高度定制的操作实现高效压缩。实验表明,该方法在推理阶段用2000步训练正确解决20%评估集谜题,证明智能可源于压缩而非大规模数据。论文一作Isaac Liao为CMU博士生,研究方向包括MDL、元学习等。

原文链接
本文链接:https://kx.umi6.com/article/30299.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
AI版三个臭皮匠!ChatGPT/Gemini/DeepSeek合体拿下AGI测试最高分
2025-07-08 17:49:27
o3挑战ARC-AGI,遇见大网格就懵圈?英国工程师:ARC-AGI不适合大模型
2024-12-26 16:36:28
中杯o3成OpenAI“性价比之王”?ARC-AGI测试结果出炉:得分翻倍、成本仅1/20
2025-04-23 11:51:39
GPT-4o攻破ARC-AGI无法被挑战的神话,71%准确率成新SOTA
2024-06-20 14:13:43
OpenAI o3是AGI吗?
2024-12-21 14:58:33
无预训练模型拿下ARC-AGI榜三!Mamba作者用压缩原理挑战Scaling Law
2025-12-16 15:45:19
见证历史!AI想的科研idea,真被人类写成论文发表了
2024-12-18 13:29:20
悬赏800万的超难测试集,被GPT-4o实现新SOTA,准确率已达50%
2024-06-18 15:31:25
周鸿祎解读AI短剧:直言有望颠覆Netflix 生产效率提升数十倍
2026-03-08 14:07:20
20岁大学生花10天VibeCoding一个开源项目,获盛大3000万投资
2026-03-08 16:13:04
Transformer作者重造龙虾,Rust搓出钢铁版,告别OpenClaw裸奔
2026-03-06 18:21:20
Meta智能眼镜曝隐私风险 用户AI互动画面会被第三方查看
2026-03-06 18:26:31
华泰证券:超配电力链中上游品种 内需与AI是能源之外的主要线索
2026-03-06 20:36:01
24小时热文
更多
扫一扫体验小程序