Open Assistant API 是一个开源自托管的 AI 智能助手 API,兼容 OpenAI 官方接口, 可以直接使用 OpenAI 官方的 Client 构建 LLM 应用。
支持 One API 可以用其接入更多商业和私有模型。
以下是使用了 OpenAI 官方的 Python openai 库的使用示例:
import openai
client = openai.OpenAI(
base_url="http://127.0.0.1:8086/api/v1",
api_key="xxx"
)
assistant = client.beta.assistants.create(
name="demo",
instructions="You are a helpful assistant.",
model="gpt-4-1106-preview"
)| 功能 | Open Assistant API | OpenAI Assistant API |
|---|---|---|
| 生态策略 | 开源 | 闭源 |
| RAG 引擎 | 简单实现 | 支持 |
| 联网搜索 | 支持 | 不支持 |
| 自定义 Functions | 支持 | 支持 |
| 内置 Tool | 支持扩展 | 不支持扩展 |
| Code Interpreter | 待开发 | 支持 |
| LLM 支持 | 支持更多的 LLM | 仅 GPT |
| 本地部署 | 支持 | 不支持 |
- LLM 支持: 相较于 OpenAI 官方版本,可以通过接入 One API 来支持更多的模型。
- Tool: 目前支持联网搜索;可以较容易扩展更多的 Tool。
- RAG 引擎: 目前支持的文件类型有 txt、pdf、html、markdown。我们提供了一个初步的实现。
- 生态策略: 开源,你可以将服务部署在本地,可以对已有功能进行扩展。
启动 Open Assistant API 最简单方法是运行 docker-compose.yml 文件。 运行之前确保机器上安装了 Docker 和 Docker Compose。
进入项目根目录,打开 docker-compose.yml,填写 openai api_key 和 bing search key (非必填)。
# openai api_key
OPENAI_API_KEY=<openai_api_key>
# bing search key (非必填)
BING_SUBSCRIPTION_KEY=<bing_subscription_key>docker compose up -dApi Base URL: http://127.0.0.1:8086/api/v1
接口文档地址: http://127.0.0.1:8086/docs
此示例中使用 OpenAI 官方的 client 库创建并运行了一个 AI 助手,包含了 web_search 和 retrieval 两个内置 tool 和一个自定义 function。
运行之前需要运行 pip install openai 安装 Python openai 库。
# !pip install openai
python tests/e2e/index.py加入 Open Assistant Api 微信交流群:
我们主要参考和依赖了以下项目:
- OpenOpenAI: Node 实现的 Assistant API
- One API: 多模型管理工具
- OpenAI-Python: OpenAI Python Client
- OpenAI API: OpenAI 接口定义
- LangChain: LLM 应用开发库
- OpenGPTs: LangChain GPTs
请阅读我们的贡献文档,了解如何参与贡献。
本仓库遵循 MIT 开源协议。有关详细信息,请参阅 LICENSE 文件。
