Claude最新推出了API长文本缓存功能,将成本降低了90%,使得一次性记住整个代码库成为可能。这一功能借鉴了谷歌Gemini的同款提示词缓存,并得到了国内团队Kimi和DeepSeek的跟进。通过缓存,用户可以在后续请求中直接复用内容,大幅减少处理长文本的延迟时间和成本。Claude的官方文档列举了几个应用场景,如对话、代码助理、大型文档处理等,均显示出了显著的速度提升和成本节约。对于开发者而言,这项更新意味着能够更高效地利用AI资源,比如一次向模型提供整个代码库,要求增加新功能,或是直接输入大量文档而不必重复输入。尽管不同平台在实现细节上有所差异,但这种模式已经受到顶级玩家的青睐,预计将成为大模型厂商的标准配置。
原文链接
本文链接:https://kx.umi6.com/article/5049.html
转载请注明文章出处
相关推荐
.png)
换一换
向高性能计算进发 RISC-V初具生态基础 多核异构有望带来AI计算能力跃升|聚焦
2025-07-18 20:44:34
DeepSeek 丢了开源第一王座,但继任者“Kimi K2”依然来自中国
2025-07-18 18:42:56
9家光模块上市公司披露上半年业绩预告 新易盛同比最高预增近4倍
2025-07-18 21:46:36
438 文章
65396 浏览
24小时热文
更多

-
2025-07-20 14:04:00
-
2025-07-20 14:03:49
-
2025-07-20 13:03:48