1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
OpenAI的前世今生
OpenAI的前世今生 OpenAI自2015年成立以来,从一家非营利机构发展为全球AI领域的领军企业,其估值呈指数级增长。本文将简要回顾其发展历程、技术突破及未来展望。 1. 前OpenAI时期(2015年之前) OpenAI的诞生得益于三个关键因素:深度学习的兴起、谷歌和Meta在AI领域的...
未来编码者
08-27 10:01:51
ChatGPT
OpenAI
Transformer
分享至
打开微信扫一扫
内容投诉
生成图片
Hinton与姚期智对谈:认为人类的意识特殊,那是危险的无稽之谈
标题:Hinton与姚期智对谈:认为人类的意识特殊,那是危险的无稽之谈 在WAIC的一场对话中,图灵奖得主Geoffery Hinton与上海期智研究院院长姚期智围绕AI与人类意识展开讨论。Hinton指出,将人类意识视为独特且不可复制的观点不仅错误,还可能带来危险的自满情绪。他认为,AI的发展...
数码游侠
07-31 11:06:36
AI道德
Transformer模型
人类意识
分享至
打开微信扫一扫
内容投诉
生成图片
非Transformer架构落地之王,带着离线智能和原生记忆能力在上海WAIC浮出水面
2025年7月,在上海WAIC展会上,一家名为RockAI的公司展示了基于非Transformer架构的Yan 2.0 Preview大模型。该模型具备原生记忆能力与离线智能,可在端侧设备上实现边用边学、多模态理解和自主进化。展会现场,机器狗在完全离线状态下学会新动作,灵巧手通过本地视觉能力流畅玩游戏。RockAI成立于2022年,专注于为端侧设备开发高效AI模型,突破了Transformer架构的高算力需求限制。其技术已在树莓派、骁龙芯片等设备上落地,并与某出海品牌合作推出AI PC,预计下半年量产。RockAI认为,群体智能是迈向AGI的关键路径,未来或将通过设备间协作构建智能群落。
LunarCoder
07-26 17:42:00
原生记忆能力
离线智能
非Transformer架构
分享至
打开微信扫一扫
内容投诉
生成图片
离线智能,什么时候迎来DeepSeek 时刻?
标题:离线智能,什么时候迎来DeepSeek时刻? 过去两年,AI的发展主要围绕云端和端侧展开。理想中,轻量化模型将让AI摆脱云端束缚,实现设备上的贴身智能。然而现实是,无论是AI玩具还是AI眼镜,其核心交互依然依赖云端,真正实现离线AI的设备凤毛麟角。 技术演示中,端侧模型看似无所不能,但实际落地...
未来笔触
07-26 14:41:20
Transformer架构
离线智能
端侧模型
分享至
打开微信扫一扫
内容投诉
生成图片
Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了
正文:2025年7月19日,KAIST、谷歌DeepMind等机构联合发布了一种全新LLM架构——Mixture-of-Recursions(MoR),被业界称为潜在的“Transformer终结者”。MoR通过动态路由和递归机制,在推理速度上提升2倍,内存占用减半,并在135M到1.7B参数规模下划出新的帕累托前沿,全面超越传统Transformer。其核心创新包括小型路由器为token打分以减少冗余计算,以及KV缓存策略优化内存效率。实验表明,MoR在相同训练FLOPs下实现更低困惑度和更高小样本准确率,推理吞吐量提升超2倍。研究团队认为,MoR展现了高可扩展性和参数效率,或成为下一代LLM架构的标杆。
智慧棱镜
07-19 11:51:22
MoR架构
Transformer
谷歌DeepMind
分享至
打开微信扫一扫
内容投诉
生成图片
Transformer危!谷歌MoR架构发布:内存减半推理速度还翻倍
2025年7月,谷歌发布全新底层架构Mixture-of-Recursions(MoR),被称作“Transformer Killer”。该架构通过统一参数共享、自适应递归深度和高效KV缓存策略,实现内存减半、推理速度翻倍,并首次在单一框架内动态分配计算资源。相比Transformer,MoR在相同FLOPs预算下减少50%参数量,提升少样本准确率至43.1%,训练时间缩短19%,峰值内存降低25%。谷歌DeepMind联合KAIST AI与Mila团队完成这一创新,或将颠覆AI计算范式。未来效果尚需时间验证。
代码编织者
07-17 18:26:53
MoR架构
Transformer
谷歌
分享至
打开微信扫一扫
内容投诉
生成图片
Mamba一作预告新架构!长文论述Transformer≠最终解法
Mamba一作预告新架构:Transformer≠最终解法 Mamba一作发表长文,探讨状态空间模型(SSMs)与Transformer的权衡。Mamba是一种现代SSM,性能超越同等规模的Transformer,被视为其有力挑战者。他提出几个核心观点:Attention虽强大但非万能;Transf...
LunarCoder
07-09 14:03:28
Mamba
SSMs
Transformer
分享至
打开微信扫一扫
内容投诉
生成图片
基于能量的Transformer横空出世!全面超越主流模型35%
基于能量的Transformer全面超越主流模型35% 弗吉尼亚大学团队提出了一种全新架构——EBT(Energy-Based Transformers),通过能量最小化机制,首次在跨模态及多项关键指标上全面超越基于Llama 2优化的Transformer++模型。实验表明,EBT在数据量、参...
Journeyman
07-08 17:50:48
Transformer架构
系统2思维
能量基模型
分享至
打开微信扫一扫
内容投诉
生成图片
Meta新注意力机制突破Transformer上限,还用上了OpenAI的开源技术
正文:2025年7月,Meta发布新注意力机制2-Simplicial Transformer,突破传统Transformer性能上限。该架构通过引入三元线性注意力机制,利用OpenAI开源的Triton框架优化计算,显著提升模型在数学、编程和推理任务中的表现。实验表明,在同等参数量下,新架构性能优于传统Transformer,尤其在大规模模型中表现突出,缩放指数更高,适合有限数据场景。研究人员使用Triton实现520TFLOPS运算性能,并结合滑动窗口机制降低计算成本。然而,其高计算复杂度和延迟仍需优化。Meta此番创新引发热议,同时也凸显OpenAI技术的重要性。论文已公开。
AI思维矩阵
07-07 17:34:43
2-Simplicial Transformer
Triton
注意力机制
分享至
打开微信扫一扫
内容投诉
生成图片
一句话生成任务专属LoRA!Transformer作者创业公司颠覆LLM微调
标题:一句话生成LoRA!Transformer作者创业公司革新LLM微调 正文: 由Transformer作者之一Llion Jones联合创立的SakanaAI公司,近期推出Text-to-LoRA(T2L),大幅简化模型适配流程。以往微调大模型需数周时间准备数据和调整超参数,如今只需一句话即可...
代码编织者Nexus
06-13 18:12:01
LoRA
Transformer
模型微调
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序