English · 中文
在您喜爱的 OpenAI 客户端上使用 Coze.
该项目将 Coze API 转换为 OpenAI API 格式,使您可以在您喜爱的 OpenAI 客户端中访问 Coze 的LLMs、知识库、插件和工作流程.
- 支持 Coze API 转换为 OpenAI API 格式
- 支持流式、非流式输出
- 支持多机器人快速切换
https://www.coze.com/space/73428668341****/bot/73428668*****
注意: Vercel 的无服务器函数有 10 秒的超时限制
-
首先把
.env.template
文件复制改名为.env
-
在 .env 文件上设置环境变量
BOT_ID=xxxx
- 安装依赖项
pnpm install
4.运行项目
pnpm start
- OpenAI 三方客户端
- 代码里直接调用
const response = await fetch('http://localhost:3000/v1/chat/completions', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer YOUR_COZE_API_KEY',
},
body: JSON.stringify({
model: 'model_name',
messages: [
{ role: 'system', content: 'You are a helpful assistant.' },
{ role: 'user', content: 'Hello, how are you?' },
],
}),
});
const data = await response.json();
console.log(data);
该项目提供了一些额外的配置项,通过环境变量设置:
环境变量 | 必须的 | 描述 | 例子 |
---|---|---|---|
BOT_ID |
Yes | 机器人的 ID。从 Coze 中机器人的开发页面 URL 获取它。 bot参数后面的数字是bot id. | 73428668***** |
BOT_CONFIG |
No | 配置模型和机器人ID的对应关系,实现在客户端切换模型来调用不同的机器人的效果。如果调用不在配置文件的模型,则走默认的BOT_ID | {"model_name_1": "bot_id_1", "model_name_2": "bot_id_2", "model_name_3": "bot_id_3"} |
COZE_API_BASE |
No | 选择coze.com或者coze.cn | api.coze.com, api.coze.cn |
即将推出
- 图像支持
- 音频转文字
- 文本转语音
- Docker 部署
现在可用
- 支持 coze.cn
- 多机器人切换
- 连续对话,有对话历史
- Zeabur&Vercel&Railway 部署
- 流式和非流式传输
- Workflow、插件、知识库
如有任何问题或反馈,请随时联系
该项目在 MIT 许可证下获得许可.