Gemini 2.5 Pro模型在AI编程实践中,能够直接读取整个项目,带来全新的体验。长上下文能革新产品交互并开启全新应用场景。谷歌DeepMind的Nikolay Savinov指出,当前百万级token上下文质量尚未完美,盲目追求更大规模意义不大;随着成本下降,千万级token上下文将成为标准配置,尤其对编码等场景有革命性突破。
上下文窗口是输入到模型中的信息,包括提示、用户交互内容或上传文件。模型有两种知识来源:权重内记忆(预训练知识)和上下文内记忆(显式提供)。上下文内记忆更易更新,适用于个性化和罕见事实。目前,若信息在互联网上仅出现一次,模型可能编造答案,因此需要显式提供。
RAG(检索增强生成)是一种工程技术,在信息送入LLM前进行预处理,通过向量比较找到相关内容。对于企业知识库等海量信息,RAG仍是必需。长上下文与RAG协同工作,提升召回率。实际应用中,延迟要求是限制因素,长上下文适合非实时场景。
长上下文对推理和Agent重要,能提升预测准确性并处理复杂任务。Agent既是长上下文使用者,也能作为提供者,自动获取上下文。开发者应多用上下文缓存,避免无关内容,结合RAG提高效果。评估长上下文质量时,需关注强干扰和多关键信息检索。
千万级上下文瓶颈在于成本,未来随着成本下降,将成标准配置,尤其对编码场景有重大影响。目前百万级上下文质量仍需提升,达到完美后将解锁更多应用场景。硬件和算法创新共同推动发展,但算法优化更为关键。
原文链接
本文链接:https://kx.umi6.com/article/20989.html
转载请注明文章出处
相关推荐
换一换
Gemini 2.5 Pro负责人:最强百万上下文,做好了能解锁很多应用场景
2025-07-01 08:52:17
OceanBase开发者大会:详解Data×AI战略,发布首个 RAG 产品
2025-05-17 13:08:37
RAG是AI版的「油电混动汽车」?
2025-10-14 23:23:51
MiniMax的好日子来了?
2025-06-18 21:51:36
GPT-4o 系列 AI 模型加持,微软 LlamaParse 文档解析能力全面升级
2024-11-28 14:33:00
没有RAG打底,一切都是PPT,RAG作者Douwe Kiela的10个关键教训
2025-07-01 12:22:59
GPT-4.1淘汰了4.5!全系列百万上下文,主打一个性价比
2025-04-15 10:24:50
谷歌最强模型 Gemini 2.5 Pro 发布即屠榜,创下史上最大分数飞跃纪录
2025-03-26 07:38:39
“迄今最智能”AI 模型登场,谷歌 Gemini 2.5 Pro 免费向公众推出
2025-03-30 17:46:01
只是RAG了一下,我看到了AI大模型的态度!
2025-01-27 14:29:34
MiniMax M1全球技术闭门会实录:RL、混合架构、长上下文的下一步
2025-07-22 13:32:06
ChatGPT 还没学会打电话,谷歌搜索 AI 已经替你电话约服务,还会谈价砍单
2025-07-17 15:27:09
推理算力“正在耗尽”?百万Token时代来临 产业打响新一轮竞逐
2025-09-13 18:29:27
730 文章
488946 浏览
24小时热文
更多
-
2026-03-09 21:13:27 -
2026-03-09 20:09:26 -
2026-03-09 20:09:18