Skip to content

WingedDragon/open-assistant-api

 
 

Repository files navigation

Open Assistant Api

✨ 开箱即用的 AI 智能助手 API ✨

简介

Open Assistant API 是一个开源自托管的 AI 智能助手 API,兼容 OpenAI 官方接口, 可以直接使用 OpenAI 官方的 Client 构建 LLM 应用。

支持 One API 可以用其接入更多商业和私有模型。

使用

以下是使用了 OpenAI 官方的 Python openai 库的使用示例:

import openai

client = openai.OpenAI(
    base_url="http://127.0.0.1:8086/api/v1",
    api_key="xxx"
)

assistant = client.beta.assistants.create(
    name="demo",
    instructions="You are a helpful assistant.",
    model="gpt-4-1106-preview"
)

为什么选择 Open Assistant API

功能 Open Assistant API OpenAI Assistant API
生态策略 开源 闭源
RAG 引擎 简单实现 支持
联网搜索 支持 不支持
自定义 Functions 支持 支持
内置 Tool 支持扩展 不支持扩展
Code Interpreter 待开发 支持
LLM 支持 支持更多的 LLM 仅 GPT
本地部署 支持 不支持
  • LLM 支持: 相较于 OpenAI 官方版本,可以通过接入 One API 来支持更多的模型。
  • Tool: 目前支持联网搜索;可以较容易扩展更多的 Tool。
  • RAG 引擎: 目前支持的文件类型有 txt、pdf、html、markdown。我们提供了一个初步的实现。
  • 生态策略: 开源,你可以将服务部署在本地,可以对已有功能进行扩展。

快速上手

启动 Open Assistant API 最简单方法是运行 docker-compose.yml 文件。 运行之前确保机器上安装了 Docker 和 Docker Compose。

配置

进入项目根目录,打开 docker-compose.yml,填写 openai api_key 和 bing search key (非必填)。

# openai api_key
OPENAI_API_KEY=<openai_api_key>

# bing search key (非必填)
BING_SUBSCRIPTION_KEY=<bing_subscription_key>

运行

使用 Docker Compose 运行:

docker compose up -d

访问 API

Api Base URL: http://127.0.0.1:8086/api/v1

接口文档地址: http://127.0.0.1:8086/docs

完整使用示例

此示例中使用 OpenAI 官方的 client 库创建并运行了一个 AI 助手,包含了 web_search 和 retrieval 两个内置 tool 和一个自定义 function。 运行之前需要运行 pip install openai 安装 Python openai 库。

# !pip install openai
python tests/e2e/index.py

社区与支持

加入 Open Assistant Api 微信交流群:

特别感谢

我们主要参考和依赖了以下项目:

参与贡献

请阅读我们的贡献文档,了解如何参与贡献。

开源协议

本仓库遵循 MIT 开源协议。有关详细信息,请参阅 LICENSE 文件。

About

An open-source self-hosted AI assistant API compatible with OpenAI's official assistant api.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages

  • Python 98.5%
  • Other 1.5%