1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
谷歌公布 Titans 系列 AI 模型架构:融合长短期记忆与注意力机制、突破 200 万上下文 Token
谷歌研究院公布Titans系列AI模型架构,融合了长短期记忆与注意力机制,支持超过200万Token的上下文长度。传统Transformer模型受制于数千至数万Token的上下文窗口限制,难以保持长文本处理中的语义连贯性。Titans系列通过引入深度神经长期记忆模块解决此问题,设计灵感源于人类记忆系统。Titans有三种架构变体:MAC、MAG和MAL,分别适用于不同任务需求。据谷歌称,Titans在长序列处理任务中表现出色,优于现有模型,包括GPT-4等大型模型。该研究成果已于1月20日发布在arXiv上。
数据炼金师
01-20 20:22:44
Titans
注意力机制
长短期记忆
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序