OpenClaude 是面向云端与本地模型的开源编程智能体 CLI。
支持 OpenAI、Gemini、GitHub Models、Codex、Ollama 等,统一终端工作流。
npm install -g @gitlawb/openclaude
# 配置 OpenAI 兼容提供商
export CLAUDE_CODE_USE_OPENAI=1
export OPENAI_API_KEY=sk-your-key-here
export OPENAI_MODEL=gpt-4o
# 启动智能体
openclaude
# 在应用内:
# /provider 引导式提供商配置
# /onboard-github GitHub Models 入门引导
在云端 API 与本地模型之间无缝切换,保持统一的工作流和工具集。
使用一个 CLI 跨越云端 API 和本地模型后端,零切换成本。
通过 /provider 在应用内保存提供商配置。
实时 token 输出和工具进度,所见即所得。
Bash、文件读写、grep、glob、智能体、任务、MCP 与斜杠命令。
支持视觉模型的 URL 与 base64 图片输入。
内置 VS Code 扩展实现启动集成与主题支持。
从顶级云服务到本地推理,全部统一在同一接口下。
| 提供商 | 备注 |
|---|---|
| OpenAI 兼容 | OpenAI、OpenRouter、DeepSeek、Groq、Mistral、LM Studio 及兼容 /v1 服务器 |
| Hicap | api-key 认证;从 /models 发现模型;支持 Responses 模式 |
| Gemini | 仅支持 API key |
| GitHub Models | 交互式引导并保存凭据 |
| Codex OAuth | 浏览器登录 ChatGPT 并安全存储 Codex 凭据 |
| Codex | 使用 Codex CLI 认证、安全存储或环境变量凭据 |
| 小米 MiMo | OpenAI 兼容;api.xiaomimimo.com/v1;默认 mimo-v2.5-pro |
| Ollama | 本地推理,无需 API key |
| Atomic Chat | 本地模型提供商,自动检测已加载模型 |
| Bedrock / Vertex / Foundry | 支持环境下的额外提供商集成 |
从安装到第一次对话,只需 60 秒。
npm install -g @gitlawb/openclaude
⚠️ 提示 ripgrep not found 时,请先安装 ripgrep 并确认 rg --version 可用。
export CLAUDE_CODE_USE_OPENAI=1
export OPENAI_API_KEY=sk-your-key
export OPENAI_MODEL=gpt-4o
或在应用内运行 /provider 进行引导式配置。
openclaude
# 应用内可用:
# /provider
# /onboard-github
享受流式输出、工具调用与多步骤智能体工作流。
在本地机器上运行开源模型,完全私有、零成本。
export CLAUDE_CODE_USE_OPENAI=1
export OPENAI_BASE_URL=http://localhost:11434/v1
export OPENAI_MODEL=qwen2.5-coder:7b
openclaude
$env:CLAUDE_CODE_USE_OPENAI="1"
$env:OPENAI_BASE_URL="http://localhost:11434/v1"
$env:OPENAI_MODEL="qwen2.5-coder:7b"
openclaude
通过基于设置的路由将不同的智能体分配到不同的模型。这对成本优化或按模型特长分配工作非常有用。
将廉价模型用于探索,将昂贵模型用于关键路径
前端任务用一个模型,规划任务用另一个模型
未匹配路由时,全局提供商作为回退
{
"agentModels": {
"deepseek-v4-flash": {
"base_url": "https://api.deepseek.com/v1",
"api_key": "sk-your-key"
},
"gpt-4o": {
"base_url": "https://api.openai.com/v1",
"api_key": "sk-your-key"
}
},
"agentRouting": {
"Explore": "deepseek-v4-flash",
"Plan": "gpt-4o",
"general-purpose": "gpt-4o",
"frontend-dev": "deepseek-v4-flash",
"default": "gpt-4o"
}
}
注意:api_key 以明文存储于 settings.json。请保持文件私有,不要提交到版本控制。
将智能体能力(工具、bash、文件编辑)集成到任何应用、CI/CD 流水线或自定义 UI 中。
在 localhost:50051 启动核心引擎作为 gRPC 服务。
npm run dev:grpc
GRPC_PORT
默认 50051
GRPC_HOST
默认 localhost
完全通过 gRPC 通信的轻量级 CLI 客户端,支持颜色渲染与权限确认。
npm run dev:grpc:cli
gRPC 定义位于 src/proto/openclaude.proto,可生成 Python、Go、Rust 等客户端。
非 Anthropic 模型默认使用 DuckDuckGo,让 GPT-4o、DeepSeek、Gemini、Ollama 开箱即用。
开箱即用的网页搜索回退方案,可能受速率限制影响。
免费版包含 500 积分,正确处理 JS 渲染页面。
export FIRECRAWL_API_KEY=your-key
加入 OpenClaude 社区,与开发者一起塑造下一代多提供商编程智能体。