dot 速度的未来将在您所在城市的活动中到来。

加入我们在 Redis 发布会

使用 Redis 云为 LangChain OpenGPTs 提供支持

OpenGPTs 是一个用于构建自定义 AI 代理的低代码、开源框架。由于 Redis 的速度和可靠性,LangChain 选择 Redis 云作为此激动人心的新项目的默认向量数据库。

在不断发展的生成式 AI 世界中,打造一个 AI 驱动的聊天机器人或代理就像拼凑一个复杂的拼图。这就是为什么 LangChain 成为使用 LLM 简化应用程序开发的领先开源框架之一。OpenAI 最近宣布推出 OpenAI GPTs(一种用于构建自定义 AI 代理的无代码“应用商店”)启发了 LangChain 开发一个类似的开源工具,称为 OpenGPTs。

OpenGPTs 允许您选择理想的 LLM 提供商、系统提示和启用工具。Redis 是默认的向量数据库。正如 LangChain 创始人 Harrison Chase 所说

“我们在 OpenGPTs 中使用 Redis 云来存储所有持久数据,包括作为检索的向量存储以及用于存储消息和代理配置的数据库。能够在一个数据库(Redis)中完成所有这些操作真的很吸引人。”

让我们直接进入并学习如何使用 OpenGPTs 和 Redis 构建一个智能 AI 代理。

介绍 OpenGPTs

通过几个配置步骤,我们可以使用 OpenGPTs 构建一个名为 RedisGuru 的机器人,它充当一个“智者”,精通 Redis 的所有知识。

在下面,您可以看到我们选择的 LLM、系统消息(影响行为的主要提示)和工具,包括 DuckDuckGo 搜索、维基百科搜索以及通过 Kay.ai 访问公共新闻稿。

ChatGpt-01

配置和部署 RedisGuru 后,我们现在可以测试该代理

bot-initial-convo

我们还可以询问有关 Redis 数据结构的问题。请注意,RedisGuru 在收到提示后会记住我的姓名

bot-initial-convo

我在几分钟内就构建了这个 RedisGuru 代理。您可以构建的内容可能性无穷无尽:电子邮件副本编辑器、智能研究助手、代码审查员等等。

Redis 云在 OpenGPTs 中的作用

在这个 OpenGPTs 演示的幕后,Redis 云提供了一个强大的、高性能的数据层,它是 OpenGPTs 堆栈的组成部分。

Redis 云会保留用户聊天会话(线程)、代理配置和用于 向量数据库 检索的嵌入文档片段。

  • 用户聊天会话:为了在对话中保持“状态”,Redis 云为 OpenGPTs 提供用户与 AI 代理之间持久聊天线程。聊天会话也会被输入 LLM,以提供有关当前对话状态的上下文信息。
  • 代理配置:为了支持多租户代理架构,Redis 云为 OpenGPTs 提供了一个远程的、低延迟的存储层。当应用程序启动时,它会从 Redis 中读取指定的代理设置和配置,然后处理请求。
  • 用于 RAG 的向量数据库:为了将对话建立在事实基础上,OpenGPTs 允许我们上传“知识”源,以便 LLM 将其与生成的答案混合在一起。OpenGPTs 使用称为检索增强生成 (RAG) 的过程,将上传的文档存储在 Redis 中,并提供实时向量搜索以检索与 LLM 相关的上下文。

这些功能(以及更多功能)是 Redis 云平台的一部分,并且通过我们的 LangChain + Redis 集成 提供。

Redis 云与 LangChain 的 OpenGPTs 的集成带来了必要的适应性、可扩展性和实时处理和搜索功能。它能够处理各种数据结构,使 Redis 云成为 OpenGPTs 内存的理想解决方案。

在本地使用 OpenGPTs

有兴趣自己试用一下吗?在本地运行 OpenGPTs 是一个简单的过程。更详细的说明可以在 项目的自述文件 中找到。以下是快速概述

1. 安装后端要求:克隆存储库。导航到后端目录并安装必要的 Python 依赖项。

2. 连接到 Redis 云和 OpenAI:OpenGPTs 使用 Redis 云进行 LLM 内存,并使用 OpenAI 进行 LLM 生成和嵌入。设置 REDIS_URL 和 OPENAI_API_KEY 环境变量以连接到您 已部署的 Redis 实例 和您的 OpenAI 帐户

export OPENAI_API_KEY=your-openai-api-key
export REDIS_URL=redis: //your-redis-url

3. 启动后端服务器:运行 LangChain 服务器以在您的本地机器上提供应用程序服务。

langchain serve –port=8100

4. 启动前端:在前端目录中,使用 yarn 启动开发服务器。

cd frontend
yarn
yarn dev

  5. 导航到 https://#:5173/ 与您的本地 OpenGPTs 部署进行交互。

在云中使用 OpenGPTs

对于那些有兴趣在没有本地设置的情况下使用 OpenGPTs 构建的人来说,请尝试 在 Google Cloud 上部署堆栈。或者,访问由 LangChain、LangServe 和 Redis 云支持的托管 研究预览部署。此部署展示了 OpenGPTs 的可定制性和易用性。

利用 Redis 和 LangChain 推动创新

Redis 云 作为企业级、低延迟向量数据库,在为您的生成式 AI 项目提供支持方面独树一帜。它不仅仅是简单的向量搜索,它还提供了多功能的数据结构,可以有效地馈送到 LLM 的应用程序状态中。这个强大的平台确保了最佳的可扩展性和性能,使 Redis 成为生成式 AI 领域不可或缺的工具。

立即深入 LangChain 的 OpenGPTs,提升您的项目,将速度、多功能性和创新性融为一体。