Litellm
LiteLLM
LiteLLM 是一个开源 LLM 网关,可为 100+ 模型提供商提供统一 API。通过 LiteLLM 路由 OpenClaw,你可以获得集中式成本跟踪、日志记录,以及在不更改 OpenClaw 配置的情况下切换后端的灵活性。
为什么要将 LiteLLM 与 OpenClaw 搭配使用?
- 成本跟踪 —— 精确查看 OpenClaw 在所有模型上的花费
- 模型路由 —— 无需更改配置,即可在 Claude、GPT-4、Gemini、Bedrock 之间切换
- 虚拟密钥 —— 为 OpenClaw 创建带有支出限制的密钥
- 日志记录 —— 提供完整的请求/响应日志,便于调试
- 回退 —— 如果你的主要提供商宕机,可自动故障切换
快速开始
通过新手引导
手动设置
- 启动 LiteLLM Proxy:
- 将 OpenClaw 指向 LiteLLM:
就是这样。OpenClaw 现在会通过 LiteLLM 进行路由。
配置
环境变量
配置文件
虚拟密钥
为 OpenClaw 创建一个带支出限制的专用密钥:
将生成的密钥用作 LITELLM_API_KEY。
模型路由
LiteLLM 可以将模型请求路由到不同后端。在你的 LiteLLM config.yaml 中进行配置:
OpenClaw 会继续请求 claude-opus-4-6 —— 路由由 LiteLLM 处理。
查看使用情况
检查 LiteLLM 的仪表板或 API:
说明
- LiteLLM 默认运行在
http://localhost:4000 - OpenClaw 通过兼容 OpenAI 的
/v1/chat/completions端点连接 - 所有 OpenClaw 功能都可通过 LiteLLM 使用 —— 没有限制