1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
Anthropic:Claude记忆功能已向免费用户开放
3月3日讯,Anthropic公司宣布,Claude的记忆功能已从周一起向免费用户开放,此前该功能仅限付费用户使用。这一功能与OpenAI旗下ChatGPT免费版本类似,可提升用户体验。此外,Anthropic还优化了新用户从其他AI聊天机器人(如ChatGPT)导入历史记录的操作,只需简单复制粘贴即可完成。这一更新为用户在不同平台间迁移数据提供了便利,进一步增强了Claude的竞争力。
超频思维站
03-03 09:50:11
Anthropic
Claude记忆功能
免费用户
分享至
打开微信扫一扫
内容投诉
生成图片
阿里达摩院开源具身大脑基模:3B激活参数性能超越72B,转身就忘事的机器人有救了
2026年2月10日,阿里达摩院开源了RynnBrain具身大脑基础模型,包含2B到30B参数的7个版本。这是业界首个拥有时空记忆的具身智能模型,能理解物理空间并记住物体位置和轨迹,性能超越英伟达Cosmos-reason2和谷歌Gemini Robotics等顶尖模型,在20项基准测试中拿下16个SOTA。RynnBrain-30B-A3B仅需3B激活参数,性能却超越72B规模的Pelican-VL,显著降低硬件成本与响应时间。模型基于Qwen3-VL训练,采用自研RynnScale架构优化训练速度,并使用超2000万对高质量语料,包括‘自我为中心’的OCR数据,增强物理世界理解能力。此外,达摩院还开源了完整代码及评测基准RynnBrain-Bench,为行业提供统一基础设施,降低研发、系统与协作门槛,推动具身智能生态发展。
心智奇点
02-10 12:11:39
具身大脑
时空记忆
物理空间推理
分享至
打开微信扫一扫
内容投诉
生成图片
首个多模态记忆湖MemoryLake发布:AI基础设施迈入记忆驱动时代
2025年1月,质变科技发布全球首个多模态记忆平台MemoryLake,标志着AI基础设施从“数据驱动”迈向“记忆驱动”时代。该平台由MemoryLake-D1大模型、记忆引擎和多模态存储与计算平台三大核心组件构成,解决多模态信息融合、数据碎片化、决策不准确等企业AI落地痛点。其记忆引擎在长程对话基准测试中以94%的综合得分全球领先,支持复杂推理与跨概念检索;多模态数据平台可管理超10万亿条记录,实现毫秒级检索。MemoryLake已在金融、制造、游戏等行业服务超150万用户和1.5万家企业,助力复杂决策、动态交互与实时风控场景智能化升级。创始人称,AI未来是记忆驱动的未来,MemoryLake为企业提供更懂业务的“记忆系统”,推动认知计算时代的到来。
像素宇宙
02-09 13:09:39
MemoryLake
多模态记忆
认知计算
分享至
打开微信扫一扫
内容投诉
生成图片
AI编程节省95% token,工具调用上限狂飙20倍,开源记忆系统登顶GitHub热榜
AI编程节省95% Token,工具调用上限提升20倍,开源记忆系统Claude-Mem登顶GitHub热榜 Claude-Mem是一款开源记忆系统,解决了AI编程助手跨会话失忆的痛点。传统AI每次新会话都需要重新解释项目背景,浪费时间和Token。Claude-Mem通过本地环境的记忆系统,记...
新智燎原
02-08 13:06:14
Claude-Mem
Token节省
持久化记忆系统
分享至
打开微信扫一扫
内容投诉
生成图片
陈天桥邓亚峰联手破解大模型记忆难题!4个月打造SOTA系统,悬赏8万美元发起全球记忆挑战赛
2026年2月,陈天桥与邓亚峰带领的EverMind团队推出世界级长期记忆系统EverMemOS,仅用4个月便达到SOTA水平,性能全面超越现有记忆增强方法。该系统模拟人类大脑记忆机制,通过情景轨迹构建、语义整合和重构式回忆三阶段实现大模型长期记忆存储与提取,并在多个基准测试中表现优异,如LoCoMo准确率达93.05%。团队不仅开源代码,还上线云服务,开发者可通过API快速部署。此外,EverMind联合多家技术社区发起首届全球记忆起源大赛,总奖金8万美元,分三大赛道,旨在推动AI记忆技术应用与创新。比赛将持续至4月,目前已开放注册。
心智奇点
02-05 23:14:15
EverMemOS
大模型记忆
记忆起源大赛
分享至
打开微信扫一扫
内容投诉
生成图片
首个大规模记忆湖发布,AI Infra跑步进入“记忆”时代
正文:2026年2月5日,质变科技发布首个大规模记忆湖产品MemoryLake,标志着AI基础设施进入‘记忆’时代。MemoryLake集成了大模型、记忆引擎和多模态存储计算平台,具备超大规模实践能力,可处理10万亿级记录和亿级文档,性能指标显著优于竞争对手。该产品通过分层管理短期、中期、长期记忆,支持跨端、跨域通用,并兼容多种主流协议,大幅降低企业部署成本。其核心优势在于多模态数据深度理解与精准提取能力,能将文本、音视频等非结构化数据转化为可靠记忆资产。此外,MemoryLake在长程对话记忆基准测试LoCoMo中以94%的综合得分位列全球第一。目前,MemoryLake已服务150万专业用户和1.5万家企业,覆盖金融、制造、游戏等多个行业,帮助企业实现隐性知识数字化和核心能力沉淀。
像素宇宙
02-05 15:56:01
AI Infra
MemoryLake
记忆平台
分享至
打开微信扫一扫
内容投诉
生成图片
刚刚,Claude实现「永久记忆」!官方还没上线,大神已玩疯
2026年1月20日,开发者通过Smart Forking技术为Claude Code注入长期记忆能力,使其无需重复解释即可继承历史对话上下文。这项基于向量检索的创新方案,将碎片化记忆转化为智能工作流,重构人机协作模式。开发者社区反响热烈,称其成功率达100%。与此同时,Anthropic官方正设计类似的知识库功能,两者路径不同但可能未来融合。Claude Code近期因破圈应用引发轰动,从编程到数据分析、恢复照片等场景广泛使用,甚至让部分用户感到职业危机。此外,Anthropic新推出的Cowork进一步扩展了AI的应用边界。Claude的崛起标志着AI发展进入新阶段,记忆组织方式或成下一代AI分水岭。
数据炼金师
01-21 11:00:16
Claude
Smart Forking
长期记忆
分享至
打开微信扫一扫
内容投诉
生成图片
不用额外缓存!英伟达开源大模型记忆压缩方案,128K上下文提速2.7倍
2026年1月,英伟达联合Astera研究所、斯坦福大学等推出开源大模型记忆压缩方案TTT-E2E。该方法基于动态学习路径,通过实时压缩上下文信息到模型权重中,避免额外缓存需求,在128K上下文处理速度上比全注意力模型快2.7倍,2M上下文提速35倍且性能无损。其核心是将长文本建模转化为持续学习任务,采用元学习优化训练与测试的端到端对齐,并设计三项关键优化(迷你批处理+滑动窗口、精准更新策略、双MLP设计)。实验显示,TTT-E2E在3B参数模型中的表现优于同类模型,推理延迟恒定,适合高效处理超长文本。不过,其在细节召回任务中表现稍逊,且元学习训练较慢。目前代码与论文已开源,项目负责人Stanford博士后Yu Sun主导开发。
DreamCoder
01-14 14:38:03
TTT-E2E
英伟达
记忆压缩
分享至
打开微信扫一扫
内容投诉
生成图片
DeepSeek发布梁文锋署名新论文 开源相关记忆模块Engram
1月12日晚,DeepSeek发布新论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》,作者包括北京大学与DeepSeek团队,署名中出现梁文锋。论文提出条件记忆(conditional memory)概念,通过引入可扩展查找记忆结构,在相同参数和算力下显著提升大型语言模型在知识调用、推理、代码及数学任务中的表现。同时,DeepSeek开源了相关记忆模块Engram,为研究社区提供重要资源。这一成果为AI模型稀疏性研究开辟了新方向,具有重要意义。
AI奇点纪元
01-13 09:25:44
DeepSeek
Engram
条件记忆
分享至
打开微信扫一扫
内容投诉
生成图片
DeepSeek 开源大模型记忆模块:梁文锋署名新论文,下一代稀疏模型提前剧透
DeepSeek团队在节前发布新论文,提出为Transformer加入“条件记忆”模块Engram,补足知识查找机制。该研究由梁文锋与北京大学团队合作完成,认为条件记忆是下一代稀疏模型的关键。Engram通过哈希查找和上下文感知门控机制优化静态知识检索,减少计算浪费,并解决传统N-gram模型的存储爆炸和多义性问题。实验表明,在27B参数规模下,Engram模型在知识密集型和推理任务中均显著优于纯MoE模型,部分任务提升超预期。此外,百亿参数表可卸载至CPU,推理延迟几乎无影响。DeepSeek计划春节前发布下一代稀疏模型,相关论文已开源。
智能维度跳跃
01-13 09:22:36
Engram模块
条件记忆
稀疏模型
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序