1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

Gemini 2.5 Pro模型在AI编程实践中,能够直接读取整个项目,带来全新的体验。长上下文能革新产品交互并开启全新应用场景。谷歌DeepMind的Nikolay Savinov指出,当前百万级token上下文质量尚未完美,盲目追求更大规模意义不大;随着成本下降,千万级token上下文将成为标准配置,尤其对编码等场景有革命性突破。

上下文窗口是输入到模型中的信息,包括提示、用户交互内容或上传文件。模型有两种知识来源:权重内记忆(预训练知识)和上下文内记忆(显式提供)。上下文内记忆更易更新,适用于个性化和罕见事实。目前,若信息在互联网上仅出现一次,模型可能编造答案,因此需要显式提供。

RAG(检索增强生成)是一种工程技术,在信息送入LLM前进行预处理,通过向量比较找到相关内容。对于企业知识库等海量信息,RAG仍是必需。长上下文与RAG协同工作,提升召回率。实际应用中,延迟要求是限制因素,长上下文适合非实时场景。

长上下文对推理和Agent重要,能提升预测准确性并处理复杂任务。Agent既是长上下文使用者,也能作为提供者,自动获取上下文。开发者应多用上下文缓存,避免无关内容,结合RAG提高效果。评估长上下文质量时,需关注强干扰和多关键信息检索。

千万级上下文瓶颈在于成本,未来随着成本下降,将成标准配置,尤其对编码场景有重大影响。目前百万级上下文质量仍需提升,达到完美后将解锁更多应用场景。硬件和算法创新共同推动发展,但算法优化更为关键。

原文链接
本文链接:https://kx.umi6.com/article/20989.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
教育部:围绕人工智能等重点方向开设“微专业” 提升就业能力
2025-07-02 15:08:02
Anthropic 取得 AI 版权官司初步胜利,出版商被指要求过于宽泛
2025-03-27 00:17:38
经济日报:“耳朵经济”大有可为
2025-01-18 09:31:32
24小时热文
更多
扫一扫体验小程序