API 基础信息

OpenClaw 虾池提供兼容 OpenAI 格式的 API 接口,可接入任何支持该格式的第三方工具。

获取 API 信息

登录平台后,在"API 信息"页面获取:

  • API 地址https://平台地址/api/proxy/v1
  • API Key:您的专属认证密钥
  • 可用模型:支持的模型名称列表

API 格式说明

接口 地址 说明
对话补全 /api/proxy/v1/chat/completions 发送对话请求,获取 AI 回复
模型列表 /api/proxy/v1/models 获取可用模型列表

认证方式

在请求 Header 中添加:

Authorization: Bearer YOUR_API_KEY

安全提示:API Key 请妥善保管,不要泄露或公开分享。如怀疑泄露,请立即联系平台管理员重置。

接入飞书妙搭

飞书妙搭是飞书的 AI 助手搭建平台,可以快速创建智能对话应用。

接入步骤

1

登录飞书管理后台

进入飞书开放平台或妙搭应用管理页面

2

创建或编辑 AI 应用

在妙搭平台创建新应用或编辑现有应用

3

配置模型服务

在模型配置页面选择"自定义模型"或"第三方 API"

4

填写 API 信息

输入从 OpenClaw 虾池获取的 API 地址和 Key

5

选择模型

在可用模型列表中选择一个模型作为应用的后端模型

6

保存并发布

保存配置后发布应用,即可在飞书中使用

配置示例

API 地址: https://your-platform.com/api/proxy/v1 API Key: your-api-key-here 模型名称: qwen-plus 或其他可用模型

提示:飞书妙搭的具体配置界面可能随版本更新变化,请参考飞书官方文档获取最新操作指南。

接入 EasyClaw

EasyClaw 是一个轻量级的 OpenClaw 客户端,支持自定义 API 后端。

接入步骤

1

打开 EasyClaw 设置

启动 EasyClaw,进入设置或配置页面

2

选择自定义后端

在模型配置中选择"自定义 API"或"自定义后端"

3

配置 API 地址

输入 OpenClaw 虾池的 API 地址

4

配置 API Key

输入您的专属 API Key

5

保存配置

保存后即可使用 EasyClaw 与您的实例对话

配置文件示例

EasyClaw 通常通过配置文件设置 API:

{ "api_url": "https://your-platform.com/api/proxy/v1", "api_key": "your-api-key-here", "model": "qwen-plus" }

接入其他工具

OpenClaw 虾池的 API 兼容 OpenAI 格式,理论上可接入任何支持该格式的工具。

支持接入的工具类型

  • 聊天应用:如 Chatbox、NextChat、OpenCat 等
  • 办公集成:如飞书、钉钉、企业微信的 AI 助手模块
  • 开发工具:如 VS Code 插件、Cursor 等
  • 自动化平台:如 Coze、Dify 等 AI 应用搭建平台
  • 自定义应用:自行开发的对接 OpenAI API 的应用

通用接入方法

1

找到 API 配置入口

在目标工具的设置页面找到"API 配置"、"模型设置"或类似入口

2

选择 OpenAI 或自定义模式

选择"OpenAI API"或"自定义 API"选项

3

填写 API 地址

将默认的 OpenAI 地址替换为 OpenClaw 虾池的 API 地址

4

填写 API Key

输入您从平台获取的专属 Key

5

选择模型并保存

从可用模型中选择一个,保存配置后即可使用

关键点:只要工具支持自定义 OpenAI API 地址,就可以接入 OpenClaw 虾池。替换默认地址和 Key 即可。

常见工具配置要点

工具 配置位置 注意事项
Chatbox 设置 → 模型配置 选择"OpenAI API"类型
NextChat 设置 → 自定义接口 启用自定义端点
Coze 模型 → 自定义模型 选择"其他模型提供商"
Dify 模型供应商设置 添加自定义供应商
Cursor 设置 → Models Override OpenAI Base URL

示例代码

以下是使用 Python 和 Node.js 调用 OpenClaw API 的示例代码。

Python 示例

import requests api_url = "https://your-platform.com/api/proxy/v1/chat/completions" api_key = "your-api-key-here" response = requests.post( api_url, headers={ "Authorization": f"Bearer {api_key}", "Content-Type": "application/json" }, json={ "model": "qwen-plus", "messages": [ {"role": "user", "content": "你好,请介绍一下自己"} ] } ) result = response.json() print(result["choices"][0]["message"]["content"])

Node.js 示例

const axios = require('axios'); const apiUrl = 'https://your-platform.com/api/proxy/v1/chat/completions'; const apiKey = 'your-api-key-here'; async function chat(message) { const response = await axios.post(apiUrl, { model: 'qwen-plus', messages: [ { role: 'user', content: message } ] }, { headers: { 'Authorization': `Bearer ${apiKey}`, 'Content-Type': 'application/json' } }); return response.data.choices[0].message.content; } chat('你好,请介绍一下自己').then(console.log);

cURL 示例

curl -X POST "https://your-platform.com/api/proxy/v1/chat/completions" \ -H "Authorization: Bearer your-api-key-here" \ -H "Content-Type: application/json" \ -d '{ "model": "qwen-plus", "messages": [{"role": "user", "content": "你好"}] }'

注意事项

重要提示

  • Token 消耗:通过 API 调用同样消耗 Token 配额,请关注使用量
  • 并发限制:避免过高频率的并发请求,可能导致响应变慢或超时
  • Key 安全:不要在公开代码仓库或网页中暴露 API Key
  • 模型名称:请求时使用的模型名称必须在可用模型列表中

推荐实践:在应用中添加错误处理和重试机制,处理网络波动或临时故障。

故障排查

接入过程中常见问题:

认证失败

  • 检查 API Key 是否正确复制(无多余空格)
  • 确认 Header 格式为 Authorization: Bearer YOUR_KEY
  • 检查 Key 是否已过期或被重置

请求超时

  • 检查网络连接是否正常
  • 确认 API 地址是否正确
  • 大模型响应可能需要一定时间,适当延长超时设置

模型不存在

  • 确认使用的模型名称在可用模型列表中
  • 模型名称需完全匹配(区分大小写)
  • 在平台"API 信息"页面查看当前支持的模型

Token 不足

  • 检查 Token 配额是否充足
  • 如有需要,使用积分兑换更多 Token
  • 联系管理员充值积分或 Token