1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

Gemini 2.5 Pro模型在AI编程实践中,能够直接读取整个项目,带来全新的体验。长上下文能革新产品交互并开启全新应用场景。谷歌DeepMind的Nikolay Savinov指出,当前百万级token上下文质量尚未完美,盲目追求更大规模意义不大;随着成本下降,千万级token上下文将成为标准配置,尤其对编码等场景有革命性突破。

上下文窗口是输入到模型中的信息,包括提示、用户交互内容或上传文件。模型有两种知识来源:权重内记忆(预训练知识)和上下文内记忆(显式提供)。上下文内记忆更易更新,适用于个性化和罕见事实。目前,若信息在互联网上仅出现一次,模型可能编造答案,因此需要显式提供。

RAG(检索增强生成)是一种工程技术,在信息送入LLM前进行预处理,通过向量比较找到相关内容。对于企业知识库等海量信息,RAG仍是必需。长上下文与RAG协同工作,提升召回率。实际应用中,延迟要求是限制因素,长上下文适合非实时场景。

长上下文对推理和Agent重要,能提升预测准确性并处理复杂任务。Agent既是长上下文使用者,也能作为提供者,自动获取上下文。开发者应多用上下文缓存,避免无关内容,结合RAG提高效果。评估长上下文质量时,需关注强干扰和多关键信息检索。

千万级上下文瓶颈在于成本,未来随着成本下降,将成标准配置,尤其对编码场景有重大影响。目前百万级上下文质量仍需提升,达到完美后将解锁更多应用场景。硬件和算法创新共同推动发展,但算法优化更为关键。

原文链接
本文链接:https://kx.umi6.com/article/20989.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
Gemini 2.5 Pro登顶三冠王!AI最强编程屠榜,全面碾压Claude 3.7
2025-05-07 17:12:34
谷歌推 I/O 版 Gemini 2.5 Pro 模型,AI 助力前端开发与复杂编程
2025-05-07 14:09:50
谷歌Gemini 2.5 Pro发布即屠榜,代码推理杀疯了
2025-03-26 16:01:23
RAG是AI版的「油电混动汽车」?
2025-10-14 23:23:51
仅用提示词工程摘下IMO金牌!清华校友强强联手新发现,学术界不靠砸钱也能比肩大厂
2025-08-02 14:17:45
MiniMax的好日子来了?
2025-06-18 21:51:36
ChatGPT 还没学会打电话,谷歌搜索 AI 已经替你电话约服务,还会谈价砍单
2025-07-17 15:27:09
“起大早赶晚集”的谷歌大模型,这次真的“遥遥领先”了?
2025-03-26 20:07:52
OceanBase开发者大会:详解Data×AI战略,发布首个 RAG 产品
2025-05-17 13:08:37
2024年,百万上下文依然没有杀死RAG
2024-12-23 14:56:59
只改2行代码,RAG效率暴涨30%!可扩展至百亿级数据规模应用
2025-06-21 15:10:22
MiniMax震撼开源,突破传统Transformer架构,4560亿参数,支持400万长上下文
2025-01-16 10:52:27
Gemini 2.5 Pro负责人:最强百万上下文,做好了能解锁很多应用场景
2025-07-01 08:52:17
24小时热文
更多
扫一扫体验小程序