dot Redis 8 已推出,并且是开源的

了解更多

LangCache 使用语义缓存存储和重复使用之前针对重复查询的 LLM 响应。

LangCache 不会为每个请求重新调用 LLM,而是检查是否已缓存了类似的响应,并立即返回,从而节省时间和金钱。

How it works

准备好加入了吗?

立即注册加入私享预览。

感谢您联系我们!

我们团队的成员将很快与您联系。

用例

通过 RAG 优化 AI 助手 plus-white minus-white

使用 LangCache 优化聊天机器人和代理,降低成本并加快响应速度。

查看 RAG 架构

构建高效代理 plus-white minus-white

代理和多步推理链由于多次调用 LLM 而耗时更长且成本更高。使用我们的语义缓存即服务提高性能。

了解代理基础设施

改进您的 AI 网关 plus-white minus-white

对于构建集中式服务来管理和控制 LLM 成本及安全性的公司而言,LangCache 是实现快速高效 AI 网关的关键组件。

增强您的 AI 网关

开始使用

注册加入我们的私享预览。

常见问题

谁有资格参与私享预览? plus-white minus-white

私享预览对正在开发生成式 AI 应用(包括 RAG 管道或代理)的开发人员、产品团队和组织开放。参与者应具有相关的用例,并愿意提供反馈以帮助完善产品。

参与私享预览是否收费? plus-white minus-white

不,参与私享预览是免费的。但在预览阶段可能存在使用限制或特定使用条款。私享预览结束后,账户将迁移至付费账户。

如何部署或访问该产品(例如,API、SDK、云服务)? plus-white minus-white

LangCache 是一种通过 REST API 接口提供的完全托管服务,可以使用任何语言进行调用。无需进行数据库管理。

产品如何处理数据安全和隐私? plus-white minus-white

您的数据存储在您的 Redis 服务器上。Redis 无权访问您的数据,我们也不会使用您的数据来训练 AI 模型。

在私享预览期间提供哪些支持? plus-white minus-white

您将获得专门的入门资源,包括文档、电子邮件和聊天支持以进行故障排除,以及与产品团队定期沟通以提供反馈和解决问题。

我如何了解更多关于产品路线图的信息? plus-white minus-white

参与者将在私享预览期间获得有关产品路线图的独家更新。此外,在整个预览期间的反馈会议或其他沟通中也可能分享路线图洞察。