1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
Transformer亲爹痛斥:当前AI陷死胡同,微调纯属浪费时间!
2026年1月20日,Transformer架构的共同发明者Llion Jones公开批评当前AI研究陷入死胡同。他指出,以数据为中心的微调和参数扩展并非通向通用人工智能(AGI)的正确路径,可能只是在制造‘昂贵的专家傻子’。他认为,Transformer的成功让行业陷入‘架构陷阱’,类似RNN被取代的历史可能重演。尽管现有工具链成熟,但Jones呼吁探索全新方向,并介绍了一种受生物启发的连续思维机(CTM)。他警示,若无根本性突破,当前大量研究可能在新范式出现时瞬间过时。这一观点引发对AI未来发展方向的深刻反思。
星际Code流浪者
01-20 09:46:08
AGI
Transformer
微调
分享至
打开微信扫一扫
内容投诉
生成图片
巴菲特的自动扶梯,直击AI投资狂潮的要害
2026年初,投资大师麦克尔·伯里、Anthropic联合创始人杰克·克拉克与科技观察者德瓦克什·帕特尔围绕AI是否为技术革命或资本泡沫展开辩论。杰克指出,AI能力快速迭代,Claude和GPT-4等模型已远超几个月前的水平,但伯里以巴菲特‘自动扶梯’理论警示,AI基础设施投入巨大却难以形成持久竞争优势。英伟达售出4000亿美元芯片,终端用户AI收入不足1000亿美元,显示泡沫特征。此外,谷歌错失AI先机,ChatGPT引爆万亿美元竞赛的现象引发质疑。讨论还涉及能源制约AI发展,伯里建议政策制定者加速核能布局,确保国家竞争力。最终共识认为,AI价值归属与生产力提升仍需时间验证。
Oasis
01-13 11:41:05
AI投资
Transformer架构
自动扶梯理论
分享至
打开微信扫一扫
内容投诉
生成图片
有300亿美元也未必“再造GPT-4”?NUS尤洋最新长文:拆穿AI增长瓶颈的真相
标题:300亿美元也难再造GPT-4?NUS尤洋解析AI增长瓶颈 正文: ChatGPT发布三周年之际,“AI瓶颈期”的焦虑愈发凸显。新加坡国立大学校长青年教授、潞晨科技创始人尤洋提出一个关键问题:即便有300亿美元预算,我们能否训练出比GPT-4更强的模型? 在《智能增长的瓶颈》一文中,尤...
灵感Phoenix
12-31 13:17:46
Transformer
智能增长
算力
分享至
打开微信扫一扫
内容投诉
生成图片
小米语音首席科学家:AI发展的本质就像生物进化,不开源要慢1000倍 | MEET2026
标题:小米语音首席科学家:AI发展如生物进化,不开源将大幅减缓进程 正文: 编辑部 整理自 MEET2026 | 量子位 从生物进化的漫长历程到AI技术的快速迭代,两者遵循着相似的底层逻辑。在探寻下一代AI架构的关键时刻,小米集团首席语音科学家、IEEE Fellow Daniel Pove...
Oasis
12-16 09:28:45
AI进化
Transformer
开源
分享至
打开微信扫一扫
内容投诉
生成图片
AI“手指难题”翻车,6 根手指暴露 Transformer 致命缺陷
近日,AI在‘数手指’任务中频频翻车,暴露了Transformer架构的致命缺陷。测试中,AI面对六指图像始终无法正确标注数字,甚至直接忽略多余的手指。这一问题不仅出现在Nano Banana Pro等模型中,GPT-5.2也未能幸免。专家分析指出,AI倾向于依赖训练数据中的强统计先验(如‘人手=五指’),难以处理异常情况。此外,Transformer并行计算的设计使其缺乏多步骤逻辑推理能力,扩散模型则擅长纹理而非精确结构。网友尝试多种方法后发现,只有将六指手视为‘不规则物体’才能规避AI的认知偏见。此事件揭示了当前AI在视觉推理和离散结构理解上的短板,亟需更先进的架构与多样化数据支持。
未来编码者
12-15 22:02:22
ai
Transformer
手指难题
分享至
打开微信扫一扫
内容投诉
生成图片
小米首席语音科学家 Daniel Povey:AI 发展的本质就像生物进化,不开源要慢 1000 倍
在2025年12月的量子位MEET2026智能未来大会上,小米首席语音科学家Daniel Povey分享了关于AI发展的核心观点。他将AI技术的演进类比为生物进化,强调开源是推动AI进步的关键加速器,认为不开源可能使研究速度减慢千倍。Povey指出,AI发展呈现“长期停滞+突然跃迁”的非线性模式,多样化的模型架构和任务探索至关重要。他还提到大公司应采取双轨策略:一方面应用当前领先的Transformer技术,另一方面投入资源寻找下一代突破性技术。目前,他的团队正开发一种名为Zapformer的新语音模型架构,并承诺继续坚持开源理念,推动行业共同进步。
智能涌动
12-15 16:49:04
AI进化
Transformer
开源
分享至
打开微信扫一扫
内容投诉
生成图片
为Token付费是一件很愚蠢的事情,用户应该为智能付费丨RockAI刘凡平@MEET2026
标题:为智能付费,而非Token丨RockAI刘凡平@MEET2026 “人工智能要迈向新阶段,必须突破两座大山:Transformer和反向传播算法。”在大模型算力与数据竞争白热化的当下,RockAI创始人刘凡平提出了一个颠覆主流的观点:未来智能的关键不在于“更大”,而在于“活起来”。 他...
跨界思维
12-14 12:41:54
Token付费
Transformer
群体智能
分享至
打开微信扫一扫
内容投诉
生成图片
8 年首次大突破:谷歌祭出 Transformer 杀手,掌门人划出 AGI 死线
2025年尾声,谷歌DeepMind CEO Hassabis预测未来12个月AI关键趋势,包括多模态融合、类人视觉智能、语言+视频深度融合等五大核心点。他强调需加速扩展现有AI系统,可能成为AGI的关键部件。谷歌在NeurIPS 2025推出全新架构Titans,结合RNN速度与Transformer性能,处理超长上下文表现出色。Hassabis预测,具备或超越人类能力的AGI可能在2030年前实现,但距离真正的AGI还需5到10年及1-2个重大技术突破。此外,Gemini模型展现了‘元认知’能力,Titans+MIRAS架构补上了记忆与持续学习短板,AGI正加速到来。
智能维度跳跃
12-07 15:34:40
AGI
Titans
Transformer
分享至
打开微信扫一扫
内容投诉
生成图片
谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?
2025年12月,谷歌在NeurIPS 2025上发布两项突破性研究,解决了Transformer处理超长上下文的瓶颈。新架构Titans结合RNN速度与Transformer性能,通过动态更新的记忆模块将上下文扩展至200万token,同时引入“惊喜指标”优化记忆存储。其理论框架MIRAS提出序列建模的统一方法,涵盖内存架构、注意力偏差等关键设计,并开发出YAAD、MONETA、MEMORA等无注意力模型。实验表明,该架构性能优于现有大规模模型如GPT-4。面对Hinton关于是否后悔公开Transformer的提问,Jeff Dean回应称其对世界产生了巨大积极影响。
代码编织者
12-05 19:46:53
MIRAS
Titans
Transformer
分享至
打开微信扫一扫
内容投诉
生成图片
趋境开源框架 KTransformers 成主流大模型首选,Qwen、Kimi、智谱 AI 推荐,单卡跑万亿模型
标题:KTransformers 成主流大模型推理引擎,单卡跑万亿模型 正文: 趋境科技与清华联合开源的高性能异构推理框架 KTransformers,已成为 Qwen、Kimi、智谱 AI 等主流大模型的推荐推理引擎,并被多家硬件厂商采纳。其技术实力获国际认可,论文入选“计算机系统领域奥斯卡”...
DreamCoder
11-20 22:47:09
KTransformers
大模型推理
异构计算
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序