又是王冠:27M小模型超越o3-mini!拒绝马斯克的00后果然不同
近日,一款名为Hierarchical Reasoning Model(HRM)的27M小模型引发关注。它在多项任务中表现优异,甚至超越了参数规模更大的o3-mini-high和DeepSeek-R1等模型。更令人惊叹的是,HRM无需预训练或思维链辅助,仅凭1000个训练样本,就能解决极端数独、30×30迷宫等复杂问题,并在衡量通用智能的ARC-AGI测试中击败众多“大前辈”。其开发者是00后清华校友、Sapient Intelligence创始人王冠,他曾拒绝马斯克的加入邀请,立志挑战Transformer架构。
HRM的核心在于仿脑设计,采用双层循环模块模拟大脑的分层处理与多时间尺度运作机制。高层模块负责抽象规划,低层模块专注细节计算,两者协同工作,确保全局方向正确且局部执行高效。此外,HRM还引入了分层收敛机制,避免过早收敛;近似梯度技术大幅降低内存需求;深度监督机制通过阶段性测试及时纠正偏差;自适应计算时间则动态分配资源,兼顾效率与准确性。
这些创新让HRM在多项任务中表现出色。例如,在9×9极端数独中,现有模型准确率为0%,而HRM几乎全对;在30×30迷宫任务中,其表现远超1.75亿参数的大型Transformer模型。尽管有人质疑HRM泛化能力有限,但其小而精的设计被认为在特定领域更具优势,且对过拟合有极强抵抗力。
王冠8岁开始编程,曾独立开发GitHub揽星5.1k项目OpenChat。2024年,他与联合创始人Austin创立Sapient Intelligence,致力于打造全新大模型架构。HRM的出现不仅是技术突破,更是对Transformer架构的一次大胆挑战。未来,这一仿脑设计或许能引领AI迈向新高度。
论文地址:https://arxiv.org/abs/2506.21734
代码地址:https://github.com/sapientinc/HRM
.png)

-
2025-08-12 00:10:57
-
2025-08-11 23:12:42
-
2025-08-11 23:11:34