1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:Transformer能否推理引争议,DeepMind更新论文开源数据集

近日,一篇由DeepMind发表的论文引发了推特上的热烈讨论,关于Transformer模型是否具备推理能力的问题引起了广泛争议。起初,DeepMind训练了一个仅有270M参数的小型Transformer模型,该模型无需搜索即可实现大师级的下棋水平。

论文发布后,一些网友认为Transformer模型能够用于逻辑任务,但这一观点迅速遭到质疑。田渊栋指出,模型的表现依赖于直觉和战术反应,而非真正的推理能力。反对者们认为,模型的表现主要依赖于训练数据,而非真正的逻辑推理。

尽管存在争议,顾全全认为,Transformer模型能够学习推理规则,这些规则虽不等同于传统意义上的逻辑推理,但仍属于有逻辑的规则范畴。DeepMind也在论文中提到,模型通过监督学习直接从大量棋局数据中学习策略。

为了回应争议,DeepMind更新了论文,并开源了名为ChessBench的数据集。该数据集包含1000万个国际象棋局面及其走法,共计超过150亿个数据点。此外,研究团队还开源了模型权重和所有训练及评估代码,方便学术界进一步研究。

尽管Transformer模型在特定任务上表现出色,但Gary Marcus等人认为,这类模型的泛化能力仍有局限,尤其在更复杂的环境下。然而,也有观点认为,这种方法在特定领域的应用仍具有潜力。

DeepMind的研究不仅展示了Transformer模型在国际象棋中的强大性能,还为AI推理和学习提供了新方向。此次研究对小参数模型的优化和应用具有里程碑意义,预示着未来AI将在轻量化和高效推理方面取得更大进展。同时,研究还引发了关于AI是否能模仿人类思维的有趣哲学问题,尽管AI的决策模式看似直觉,但其实质仍是基于数据的学习。

原文链接
本文链接:https://kx.umi6.com/article/7728.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
谷歌ViT核心骨干集体投奔OpenAI:他们为Sora打下基础
2024-12-04 22:48:59
一位AI从业者的十年
2024-12-05 14:02:03
彩云小梦V3.5上线!首个基于DCFormer架构通用大模型发布
2024-11-13 18:44:50
腾讯推出 Hunyuan-Large 大模型:389B 总参数,业界已开源基于 Transformer 的最大 MoE 模型
2024-11-05 17:04:28
小米开源“Xiaomi MiMo”大模型:为推理而生,以 7B 参数超越 OpenAI o1-mini
2025-04-30 19:37:14
黄仁勋:我从不在乎市场份额,英伟达唯一目标是创造新市场
2024-10-23 12:33:52
谷歌 AI 掌门人 Jeff Dean 对话 Transformer 作者:AI 提速 300%,1000 万倍工程师要来了
2025-02-22 18:43:08
下给英伟达的新年战书,“小”芯片公司们喜迎2025年
2025-01-03 19:51:53
比英伟达快20倍!哈佛辍学生发布大模型芯片 属于AI的“矿机革命”要来了?
2024-06-27 18:29:52
全球首款 Transformer 专用 AI 芯片 Sohu 登场:每秒可处理 50 万个 tokens,英伟达 H100 的 20 倍
2024-06-26 12:30:19
那个要挑战GPT的00后清华男孩
2024-09-20 11:49:07
彩云科技DCFormer模型架构发布,效率是Transformer的两倍!
2024-06-07 18:02:52
英伟达跌倒,AI芯片创企却吃饱?DeepSeek开启推理大时代
2025-02-08 16:28:47
24小时热文
更多
扫一扫体验小程序