当前位置:»资讯 AI新闻 全球AI最前线

[行业动态] Anthropic推出Claude API提示缓存功能,可为长提示降低90%成本和85%延迟

cbd03ed50a0e83242cb5fd7b517d9dc7be3426f5-2880x1620.webp

人工智能公司Anthropic近日宣布,其Claude API新增提示缓存(prompt caching)功能,现已进入公开测试阶段。该功能允许开发者在API调用之间缓存频繁使用的上下文信息,可为长提示降低高达90%的成本和85%的延迟。

提示缓存功能目前支持Claude 3.5 Sonnet和Claude 3 Haiku模型,Claude 3 Opus模型的支持即将推出。该功能适用于需要重复使用大量提示上下文的场景,如对话代理、编码助手、大文档处理、详细指令集等。

Anthropic表示,早期用户在各种用例中都看到了显著的速度和成本改进。例如,在"与书籍对话"的场景中,使用10万个token的缓存提示可将延迟从11.5秒降至2.4秒,同时将成本降低90%。
prompt_caching_latency.png


在定价方面,缓存提示的写入成本比基本输入token价格高25%,而使用缓存内容的成本仅为基本价格的10%。这种定价策略旨在鼓励用户更多地利用缓存功能。

知名协作平台Notion已开始将提示缓存应用于其AI助手Notion AI的Claude驱动功能中。Notion联合创始人Simon Last表示,这一功能将帮助他们优化内部运营,为用户提供更快速、更经济的AI体验。

Anthropic鼓励开发者查阅其文档和定价页面,以开始使用提示缓存公测功能。这一创新功能有望为AI应用开发带来更多可能性,同时提高效率、降低成本。

声明: 本站所有内容来源于用户上传,用来分享交流。如有资料或者图片不小心侵权,请发邮件(41835170@qq.com)告知!
分享到:
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

豫ICP备2024052610号-1 ©AI闹海