OpenClaw
OpenClaw 是一款开源个人 AI 助手,支持 WhatsApp、Discord、Telegram 等多种消息平台。通过配置 Kouri Ai 模型,您可以低成本使用优质 AI 模型驱动 OpenClaw。
关于 OpenClaw
OpenClaw 是一款热门的开源个人 AI 助手,可以在您自己的设备上运行,并连接 WhatsApp、Discord、Telegram、企业微信、飞书等多种消息平台,实现 AI 对话自动化。
OpenClaw 支持多种模型提供商,Kouri Ai 兼容 OpenAI API 格式,可以直接作为自定义 Provider 接入。
部署 OpenClaw
该项目推荐服务器部署!雨云是我们的合作伙伴,您可以使用我们的专属链接https://www.rainyun.com/kouri_ 注册账号后绑定微信获得无门槛优惠券。雨云支持该项目的一键部署! 您也可以参考下面的命令手动部署。
系统要求:Node.js 22 或更高版本
macOS / Linux:
curl -fsSL https://clawd.org.cn/install.sh | bashWindows (PowerShell):
iwr -useb https://clawd.org.cn/install.ps1 | iex安装完成后,运行 onboard 向导完成初始配置:
openclaw-cn onboard --install-daemon在onboard中配置模型的环节您也可以选择自定义 OpenAI 供应商,输入我们的端点(https://api.kourichat.com/v1 )、模型(推荐glm-5、kimi-k2.5、minimax-m2.5、glm-4.7、longcat-flash-chat)、令牌等完成配置。
验证网关状态:
openclaw-cn gateway status打开控制面板:
openclaw-cn dashboard然后在浏览器中访问 http://127.0.0.1:18789/。
更多部署详情请参考 OpenClaw 中文部署文档。
配置 Kouri Ai 模型
通过配置文件配置
在 OpenClaw 配置文件 ~/.openclaw/openclaw.json 中,添加以下 models 配置:
{
"models": {
"mode": "merge",
"providers": {
"kouri": {
"baseUrl": "https://api.kourichat.com/v1",
"apiKey": "sk-kouri-your-api-key-here",
"api": "openai-completions",
"models": [
{
"id": "longcat-flash-chat",
"name": "longcat-flash-chat",
"reasoning": false,
"input": ["text"],
"cost": {"input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0},
"contextWindow": 128000,
"maxTokens": 4096
},
{
"id": "glm-5",
"name": "glm-5",
"reasoning": false,
"input": ["text"],
"cost": {"input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0},
"contextWindow": 128000,
"maxTokens": 4096
},
{
"id": "kimi-k2.5",
"name": "kimi-k2.5",
"reasoning": false,
"input": ["text", "image"],
"cost": {"input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0},
"contextWindow": 262144,
"maxTokens": 32768
},
{
"id": "minimax-m2.5",
"name": "minimax-m2.5",
"reasoning": false,
"input": ["text"],
"cost": {"input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0},
"contextWindow": 196608,
"maxTokens": 32768
},
{
"id": "glm-4.7",
"name": "glm-4.7",
"reasoning": false,
"input": ["text"],
"cost": {"input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0},
"contextWindow": 202752,
"maxTokens": 16384
}
]
}
}
}
}请将 sk-kouri-your-api-key-here 替换为您实际的 Kouri Ai API 令牌。如果还没有令牌,请前往 Kouri Ai 控制台 获取。
模型说明
| 模型 | 上下文窗口 | 最大输出 | 支持图片 | 说明 |
|---|---|---|---|---|
longcat-flash-chat | 128K | 4096 | 否 | 快速对话模型 |
glm-5 | 128K | 4096 | 否 | 智谱 GLM-5 |
kimi-k2.5 | 256K | 32768 | 是 | Kimi 多模态模型,支持超长上下文 |
minimax-m2.5 | 192K | 32768 | 否 | MiniMax 大语言模型 |
glm-4.7 | 200K | 16384 | 否 | 智谱 GLM-4.7 |