综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2026年1月20日,Transformer架构的共同发明者Llion Jones公开批评当前AI研究陷入死胡同。他指出,以数据为中心的微调和参数扩展并非通向通用人工智能(AGI)的正确路径,可能只是在制造‘昂贵的专家傻子’。他认为,Transformer的成功让行业陷入‘架构陷阱’,类似RNN被取代的历史可能重演。尽管现有工具链成熟,但Jones呼吁探索全新方向,并介绍了一种受生物启发的连续思维机(CTM)。他警示,若无根本性突破,当前大量研究可能在新范式出现时瞬间过时。这一观点引发对AI未来发展方向的深刻反思。
原文链接
2026年初,投资大师麦克尔·伯里、Anthropic联合创始人杰克·克拉克与科技观察者德瓦克什·帕特尔围绕AI是否为技术革命或资本泡沫展开辩论。杰克指出,AI能力快速迭代,Claude和GPT-4等模型已远超几个月前的水平,但伯里以巴菲特‘自动扶梯’理论警示,AI基础设施投入巨大却难以形成持久竞争优势。英伟达售出4000亿美元芯片,终端用户AI收入不足1000亿美元,显示泡沫特征。此外,谷歌错失AI先机,ChatGPT引爆万亿美元竞赛的现象引发质疑。讨论还涉及能源制约AI发展,伯里建议政策制定者加速核能布局,确保国家竞争力。最终共识认为,AI价值归属与生产力提升仍需时间验证。
原文链接
标题:300亿美元也难再造GPT-4?NUS尤洋解析AI增长瓶颈
正文:
ChatGPT发布三周年之际,“AI瓶颈期”的焦虑愈发凸显。新加坡国立大学校长青年教授、潞晨科技创始人尤洋提出一个关键问题:即便有300亿美元预算,我们能否训练出比GPT-4更强的模型?
在《智能增长的瓶颈》一文中,尤...
原文链接
标题:小米语音首席科学家:AI发展如生物进化,不开源将大幅减缓进程
正文:
编辑部 整理自 MEET2026 | 量子位
从生物进化的漫长历程到AI技术的快速迭代,两者遵循着相似的底层逻辑。在探寻下一代AI架构的关键时刻,小米集团首席语音科学家、IEEE Fellow Daniel Pove...
原文链接
近日,AI在‘数手指’任务中频频翻车,暴露了Transformer架构的致命缺陷。测试中,AI面对六指图像始终无法正确标注数字,甚至直接忽略多余的手指。这一问题不仅出现在Nano Banana Pro等模型中,GPT-5.2也未能幸免。专家分析指出,AI倾向于依赖训练数据中的强统计先验(如‘人手=五指’),难以处理异常情况。此外,Transformer并行计算的设计使其缺乏多步骤逻辑推理能力,扩散模型则擅长纹理而非精确结构。网友尝试多种方法后发现,只有将六指手视为‘不规则物体’才能规避AI的认知偏见。此事件揭示了当前AI在视觉推理和离散结构理解上的短板,亟需更先进的架构与多样化数据支持。
原文链接
在2025年12月的量子位MEET2026智能未来大会上,小米首席语音科学家Daniel Povey分享了关于AI发展的核心观点。他将AI技术的演进类比为生物进化,强调开源是推动AI进步的关键加速器,认为不开源可能使研究速度减慢千倍。Povey指出,AI发展呈现“长期停滞+突然跃迁”的非线性模式,多样化的模型架构和任务探索至关重要。他还提到大公司应采取双轨策略:一方面应用当前领先的Transformer技术,另一方面投入资源寻找下一代突破性技术。目前,他的团队正开发一种名为Zapformer的新语音模型架构,并承诺继续坚持开源理念,推动行业共同进步。
原文链接
标题:为智能付费,而非Token丨RockAI刘凡平@MEET2026
“人工智能要迈向新阶段,必须突破两座大山:Transformer和反向传播算法。”在大模型算力与数据竞争白热化的当下,RockAI创始人刘凡平提出了一个颠覆主流的观点:未来智能的关键不在于“更大”,而在于“活起来”。
他...
原文链接
2025年尾声,谷歌DeepMind CEO Hassabis预测未来12个月AI关键趋势,包括多模态融合、类人视觉智能、语言+视频深度融合等五大核心点。他强调需加速扩展现有AI系统,可能成为AGI的关键部件。谷歌在NeurIPS 2025推出全新架构Titans,结合RNN速度与Transformer性能,处理超长上下文表现出色。Hassabis预测,具备或超越人类能力的AGI可能在2030年前实现,但距离真正的AGI还需5到10年及1-2个重大技术突破。此外,Gemini模型展现了‘元认知’能力,Titans+MIRAS架构补上了记忆与持续学习短板,AGI正加速到来。
原文链接
2025年12月,谷歌在NeurIPS 2025上发布两项突破性研究,解决了Transformer处理超长上下文的瓶颈。新架构Titans结合RNN速度与Transformer性能,通过动态更新的记忆模块将上下文扩展至200万token,同时引入“惊喜指标”优化记忆存储。其理论框架MIRAS提出序列建模的统一方法,涵盖内存架构、注意力偏差等关键设计,并开发出YAAD、MONETA、MEMORA等无注意力模型。实验表明,该架构性能优于现有大规模模型如GPT-4。面对Hinton关于是否后悔公开Transformer的提问,Jeff Dean回应称其对世界产生了巨大积极影响。
原文链接
标题:KTransformers 成主流大模型推理引擎,单卡跑万亿模型
正文:
趋境科技与清华联合开源的高性能异构推理框架 KTransformers,已成为 Qwen、Kimi、智谱 AI 等主流大模型的推荐推理引擎,并被多家硬件厂商采纳。其技术实力获国际认可,论文入选“计算机系统领域奥斯卡”...
原文链接
加载更多
暂无内容