Gemini 2.5 Pro模型在AI编程实践中,能够直接读取整个项目,带来全新的体验。长上下文能革新产品交互并开启全新应用场景。谷歌DeepMind的Nikolay Savinov指出,当前百万级token上下文质量尚未完美,盲目追求更大规模意义不大;随着成本下降,千万级token上下文将成为标准配置,尤其对编码等场景有革命性突破。
上下文窗口是输入到模型中的信息,包括提示、用户交互内容或上传文件。模型有两种知识来源:权重内记忆(预训练知识)和上下文内记忆(显式提供)。上下文内记忆更易更新,适用于个性化和罕见事实。目前,若信息在互联网上仅出现一次,模型可能编造答案,因此需要显式提供。
RAG(检索增强生成)是一种工程技术,在信息送入LLM前进行预处理,通过向量比较找到相关内容。对于企业知识库等海量信息,RAG仍是必需。长上下文与RAG协同工作,提升召回率。实际应用中,延迟要求是限制因素,长上下文适合非实时场景。
长上下文对推理和Agent重要,能提升预测准确性并处理复杂任务。Agent既是长上下文使用者,也能作为提供者,自动获取上下文。开发者应多用上下文缓存,避免无关内容,结合RAG提高效果。评估长上下文质量时,需关注强干扰和多关键信息检索。
千万级上下文瓶颈在于成本,未来随着成本下降,将成标准配置,尤其对编码场景有重大影响。目前百万级上下文质量仍需提升,达到完美后将解锁更多应用场景。硬件和算法创新共同推动发展,但算法优化更为关键。
原文链接
本文链接:https://kx.umi6.com/article/20989.html
转载请注明文章出处
相关推荐
换一换
没有RAG打底,一切都是PPT,RAG作者Douwe Kiela的10个关键教训
2025-07-01 12:22:59
谷歌Gemini 2.5 Pro发布即屠榜,代码推理杀疯了
2025-03-26 16:01:23
腾讯开源通用文本表示模型 Youtu-Embedding,可应用于企业客服、智能问答等场景
2025-10-14 15:19:49
仅用提示词工程摘下IMO金牌!清华校友强强联手新发现,学术界不靠砸钱也能比肩大厂
2025-08-02 14:17:45
只改2行代码,RAG效率暴涨30%!可扩展至百亿级数据规模应用
2025-06-21 15:10:22
2024年,百万上下文依然没有杀死RAG
2024-12-23 14:56:59
DeepSeek点燃国产大模型斗志,RAG等核心技术被重估
2025-02-06 15:32:51
谷歌推 I/O 版 Gemini 2.5 Pro 模型,AI 助力前端开发与复杂编程
2025-05-07 14:09:50
杨植麟GTC上披露Kimi技术路线:押注Token效率、长上下文及Agent集群
2026-03-18 12:13:34
MiniMax M1全球技术闭门会实录:RL、混合架构、长上下文的下一步
2025-07-22 13:32:06
GPT-4o 系列 AI 模型加持,微软 LlamaParse 文档解析能力全面升级
2024-11-28 14:33:00
只是RAG了一下,我看到了AI大模型的态度!
2025-01-27 14:29:34
RAG性能暴增20%!清华等推出以笔记为中心的深度检索增强生成框架
2025-04-30 20:47:08
764 文章
573146 浏览
24小时热文
更多
-
2026-04-24 16:22:09 -
2026-04-24 16:21:03 -
2026-04-24 16:19:57