标题:为智能付费,而非Token丨RockAI刘凡平@MEET2026
“人工智能要迈向新阶段,必须突破两座大山:Transformer和反向传播算法。”在大模型算力与数据竞争白热化的当下,RockAI创始人刘凡平提出了一个颠覆主流的观点:未来智能的关键不在于“更大”,而在于“活起来”。
他认为,当前的AI发展方向应从云端集中式算力转向端侧设备的自主学习与原生记忆。这种转变将让设备摆脱静态函数的限制,成为具备动态记忆和持续进化能力的“活”智能体。无数这样的智能体通过协作,将孕育出能够产生知识的群体智能,这是迈向通用人工智能的最佳路径。
刘凡平指出,“为Token付费是一件很愚蠢的事情”。用户真正需要的是智能,而不是为冗长的文本生成买单。未来的端侧模型不应是云端大模型的小参数版本,而是具备自主学习和原生记忆能力的全新架构。Transformer架构虽然优秀,但其依赖大规模数据和算力的方式已陷入“死亡螺旋”,无法实现真正的智能。
他强调,真正的记忆并非靠长上下文维持,而是像人类大脑的海马体一样,对信息进行压缩存储并动态更新。RockAI研发的新架构模型实现了极端稀疏化和记忆模块的加入,能够在手机、CPU等低功耗设备上运行,同时支持训练与推理同步进行,使模型具备持续进化的能力。
当每台设备拥有自己的智能并能向物理世界学习时,硬件的价值将被重新定义。用户不再为功能买单,而是与设备共同创造价值。这种全新的智能生态将带来群体智能的涌现,每个个体通过合作产生知识,推动文明进步。
刘凡平总结道:“群体智能才是通用人工智能的未来,而不是依赖云端大模型的‘造神’路径。”
原文链接
本文链接:https://kx.umi6.com/article/30201.html
转载请注明文章出处
相关推荐
换一换
拯救Transformer推理能力,DeepMind新研究TransNAR:给模型嵌入“算法推理大脑”
2024-06-17 17:06:21
优必选五大人形机器人亮相世界机器人大会,群体智能重塑新质生产力
2025-08-08 17:15:21
苹果AI选Mamba:Agent任务比Transformer更好
2025-10-21 14:27:27
腾讯推出 Hunyuan-Large 大模型:389B 总参数,业界已开源基于 Transformer 的最大 MoE 模型
2024-11-05 17:04:28
谷歌ViT核心骨干集体投奔OpenAI:他们为Sora打下基础
2024-12-04 22:48:59
OpenAI的前世今生
2025-08-27 10:01:51
全球首款Transformer专用AI芯片Sohu发布:比英伟达H100快20倍
2024-06-26 16:11:57
LLM 的“母语”是什么?
2024-06-03 07:50:10
每帧都是AI实时生成的,全球首款AI游戏问世了!
2024-11-05 15:45:38
132年未解开的李雅普诺夫函数谜题,被AI攻克了?
2024-10-20 20:02:17
Transformer能否推理引争议,DeepMind连夜更新论文开源数据集:Transformer真的很强
2024-10-23 10:38:01
小冰之父李笛智能体创业,公司取名Nextie!陆奇是股东
2025-12-09 09:22:47
小米语音首席科学家:AI发展的本质就像生物进化,不开源要慢1000倍 | MEET2026
2025-12-16 09:28:45
702 文章
585885 浏览
24小时热文
更多
-
2026-04-24 15:20:44 -
2026-04-24 15:19:39 -
2026-04-24 15:18:33