1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

2025年12月,Dwarkesh在其最新播客中总结了AI进展的现状与未来趋势。他指出,以强化学习为核心的“中训练”正成为大语言模型的重点突破方向,但这表明AGI仍遥远,因模型需依赖大量预置技能而非泛化能力。他认为,当前AI经济扩散滞后并非技术扩散问题,而是模型能力不足所致。此外,Dwarkesh提到,持续学习将是AGI后提升模型能力的主要驱动力,预计明年前沿团队将发布初步功能,但达到人类水平可能还需5到10年。他还强调,AI在特定任务上的表现常被高估,而真正的AGI需解决复杂智能和劳动的核心问题。评论区反馈补充了对AI错误模式不可预测性及强化学习局限性的讨论。

原文链接
本文链接:https://kx.umi6.com/article/30778.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
又一篇“苦涩的教训”,让AI觉得人间有不值,发现无穷尽
2025-04-22 08:10:09
从蛰伏到王炸,RL启示录
2025-03-25 19:11:14
我们让GPT玩狼人杀,它特别喜欢杀0号和1号,为什么?
2025-05-23 13:51:09
OpenAI总裁透露GPT-5改了推理范式,AGI实现要靠现实反馈
2025-08-18 17:48:45
于骞出席德国慕尼黑汽车论坛:世界模型+强化学习是通向物理AI的必经之路
2026-03-19 19:23:06
多模态模型学会“按需搜索”,少搜30%还更准!字节&NTU新研究优化多模态模型搜索策略
2025-07-09 14:06:26
清华刘洋团队论文:揭示为何 70B 的医疗模型,反而不如 8B 会问诊丨ILCR 2026
2026-02-24 14:48:42
Cursor自研模型反超Opus 4.6!价格脚踝斩,氛围编程沸腾了
2026-03-20 12:25:37
Gemini2.5弯道超车背后的灵魂人物
2025-06-05 11:52:48
突破多模态奖励瓶颈!中科院清华快手联合提出R1-Reward,用强化学习赋予模型长期推理能力
2025-05-08 18:33:15
RL 是推理神器?清华上交大最新研究指出:RL 让大模型更会“套公式”、却不会真推理
2025-04-23 11:57:26
挑战强化学习后训练霸权!全新无监督方法仅需1条数据+10步优化
2025-06-01 13:22:14
姚班学霸、OpenAI姚顺雨:大模型下半场是产品的游戏
2025-04-17 17:47:23
24小时热文
更多
扫一扫体验小程序