
老苏就职于一家专注于音视频实时交互技术和智能算法的创新企业。公司通过提供全面的 SDK 和解决方案,助力用户轻松实现实时音视频通话和消息传递等功能。尽管公司网站上有详细的文档中心,但在实际开发中,仍面临大量咨询工作。
鉴于此,老苏考虑利用 GPT 模型的卓越文本生成功能,构建一个企业级的私有知识库。通过用户输入,生成连贯、有逻辑的回复,并通过不断训练和优化,打造一个更智能、更个性化的客户服务体验。
接下来,我们将分三篇文章来实践这一解决方案的可能性,看看效果到底如何?
什么是 One API ?
One-API是OpenAI接口管理 & 分发系统,支持Azure、Anthropic Claude、Google PaLM 2 & Gemini、智谱ChatGLM、百度文心一言、讯飞星火认知、阿里通义千问、360智脑以及腾讯混元,可用于二次分发管理key,仅单可执行文件,已打包好Docker镜像,一键部署,开箱即用。
One API 可以用来管理模型池,其可以兼容 OpenAI 、Azure 、国内主流模型和本地模型等

工作原理如下:
- 在
渠道页面中添加你的API Key - 然后在
令牌页面中新增访问令牌 - 客户端使用令牌访问
One API - 根据请求中的
model参数,匹配对应的渠道(根据渠道里的模型进行匹配,必须完全一致)。如果匹配到多个渠道,则随机选择一个(同优先级) One API向真正的地址发出请求,并将结果返回给客户端
安装
在群晖上以 Docker 方式安装。
在注册表中搜索 one-api ,选择第一个 justsong/one-api,版本选择 latest。
本文第一次折腾时,
latest版本对应为v0.5.7-alpha.1;本文写作时,latest版本对应为v0.6.5

卷
在 docker 文件夹中,创建一个新文件夹 one-api,并在其中建一个子文件夹 data
| 文件夹 | 装载路径 | 说明 |
|---|---|---|
docker/one-api/data | /data | 存放数据库和日志等 |

端口
本地端口不冲突就行,不确定的话可以用命令查一下
# 查看端口占用
netstat -tunlp | grep 端口号
| 本地端口 | 容器端口 |
|---|---|
3033 | 3000 |

环境
| 可变 | 值 |
|---|---|
TZ | 设为 Asia/Shanghai |

命令行安装
如果你熟悉命令行,可能用 docker cli 更快捷
# 新建文件夹 one-api 和 子目录
mkdir -p /volume1/docker/one-api/data
# 进入 one-api 目录
cd /volume1/docker/one-api
# 运行容器
docker run -d \
--restart always \
--name one-api \
-p 3033:3000 \
-v $(pwd)/data:/data \
-e TZ=Asia/Shanghai \
justsong/one-api
也可以用 docker-compose 安装,将下面的内容保存为 docker-compose.yml 文件
version: '3'
services:
one-api:
image: justsong/one-api
container_name: one-api
restart: unless-stopped
ports:
- 3033:3000
volumes:
- ./data:/data
environment:
- TZ=Asia/Shanghai
然后执行下面的命令
# 新建文件夹 one-api 和 子目录
mkdir -p /volume1/docker/one-api/data
# 进入 one-api 目录
cd /volume1/docker/one-api
# 将 docker-compose.yml 放入当前目录
# 一键启动
docker-compose up -d
运行
在浏览器中输入 http://群晖IP:3033 就能看到主界面

点 登陆 按钮
初始管理员账号用户名为
root,密码为123456

当然也可以注册新用户

登陆成功之后的主界面
【注意】:记得立刻修改默认密码!

新建渠道
点 添加新的渠道

Moonshot AI
以 Moonshot AI 为例
- 类型: 类型下拉选择
Moonshot AI

- 名称:随意
- 分组:内置三种,分别是
default、vip和svip - 模型:一般会根据类型自动填写
- 密钥:
Moonshot AI的秘钥,可以在这里申请: https://platform.moonshot.cn/console/api-keys
这是
Moonshot的开发者账号,新用户注册会有15元额度。这和之前我们用的kimi-free-api中介绍的refresh_token不是一个概念。

保存之后,可以 测试

如果没问题的话,会提示测试成功

kimi-free-api
当然,我们也可以添加之前使用过的 kimi-free-api
kimi是Moonshot基于Moonshot AI开发的产品
- 类型:选择
自定义渠道 Base URL:填入kimi-free-api的访问地址http://群晖IP:8126- 名称:例如:
kimi-free-api - 分组:
default就行 - 模型:输入自定义模型名称,
填入即可 - 秘钥:从 kimi.moonshot.cn 网页上获取的
refresh_token

保存之后,可以测试一下是否设置正确

创建令牌
要二次分发使用,还需要有令牌

用于控制可使用的模型、额度、时限等
【注意】:这里没有设置模型范围,意味着后续添加的新渠道的模型,都是可以通过这个令牌进行访问的

保存之后

以 ChatGPT Next Web 为例

会得到一个字符串,其中
key:对应的是ChatGPT Next Web的环境变量OPENAI_API_KEYurl:对应的是ChatGPT Next Web的环境变量BASE_URL,但不能用http://localhost:3000,而要使用外部地址http://http://群晖IP:3033
ChatGPT Next Web
还是以 ChatGPT-Next-Web 为例
文章传送门:跨平台私人ChatGPT应用ChatGPT-Next-Web
如果你还没安装 ChatGPT-Next-Web ,可以用下面的命令一键搞定
# 运行容器
docker run -d \
--restart unless-stopped \
--name chatgpt-next-web \
-p 3059:3000 \
-e OPENAI_API_KEY=<你的 key> \
-e BASE_URL=http://<你的群晖IP>:3033 \
-e CUSTOM_MODELS="-all,+moonshot-v1-8k,+moonshot-v1-32k,+moonshot-v1-128k" \
yidadaa/chatgpt-next-web
如果你已经安装过ChatGPT-Next-Web,需要修改三个环境变量参数
OPENAI_API_KEY:之前不论你是安装的FreeGPT35还是aurora,这个值都是随便填的,现在必须改为我们前面获取的keyBASE_URL:填写One API服务的地址 + 端口
| 服务名称 | 服务地址 |
|---|---|
FreeGPT35 | http://192.168.0.197:3044 |
aurora | http://192.168.0.197:8328 |
GPT4Free | http://192.168.0.197:1337 |
kimi-free-api | http://192.168.0.197:8126 |
One API | http://192.168.0.197:3033 |
CUSTOM_MODELS:用来控制模型列表,使用+增加一个模型,使用-来隐藏一个模型,使用模型名=展示名来自定义模型的展示名,用英文逗号隔开。需改为-all,+moonshot-v1-8k,+moonshot-v1-32k,+moonshot-v1-128k

重新启动 ChatGPT-Next-Web 容器后,进入的设置,可以看到模型已经改变了

接下来就可以开始聊天了

当然,One API 作为分发系统,还支持充值、兑换、日志等功能

参考文档
songquanpeng/one-api: OpenAI 接口管理 & 分发系统,支持 Azure、Anthropic Claude、Google PaLM 2、智谱 ChatGLM、百度文心一言、讯飞星火认知、阿里通义千问、360 智脑以及腾讯混元,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用. OpenAI key management & redistribution system, using a single API for all LLMs, and features an English UI.
地址:https://github.com/songquanpeng/one-api



















