开源 · MIT License · 多提供商支持

一个 CLI, 驱动所有模型

OpenClaude 是面向云端与本地模型的开源编程智能体 CLI。 支持 OpenAI、Gemini、GitHub Models、Codex、Ollama 等,统一终端工作流。

$ npm install -g @gitlawb/openclaude
openclaude — bash
# 配置 OpenAI 兼容提供商
export CLAUDE_CODE_USE_OPENAI=1
export OPENAI_API_KEY=sk-your-key-here
export OPENAI_MODEL=gpt-4o

# 启动智能体
openclaude

# 在应用内:
#  /provider          引导式提供商配置
#  /onboard-github    GitHub Models 入门引导
为什么选择 OpenClaude

将编程智能体
集中于一处

在云端 API 与本地模型之间无缝切换,保持统一的工作流和工具集。

统一 CLI

使用一个 CLI 跨越云端 API 和本地模型后端,零切换成本。

引导式配置

通过 /provider 在应用内保存提供商配置。

流式响应

实时 token 输出和工具进度,所见即所得。

工具驱动

Bash、文件读写、grep、glob、智能体、任务、MCP 与斜杠命令。

图片输入

支持视觉模型的 URL 与 base64 图片输入。

VS Code 集成

内置 VS Code 扩展实现启动集成与主题支持。

支持的提供商

10+ 模型提供商
开箱即用

从顶级云服务到本地推理,全部统一在同一接口下。

提供商 备注
OpenAI 兼容 OpenAI、OpenRouter、DeepSeek、Groq、Mistral、LM Studio 及兼容 /v1 服务器
Hicap api-key 认证;从 /models 发现模型;支持 Responses 模式
Gemini 仅支持 API key
GitHub Models 交互式引导并保存凭据
Codex OAuth 浏览器登录 ChatGPT 并安全存储 Codex 凭据
Codex 使用 Codex CLI 认证、安全存储或环境变量凭据
小米 MiMo OpenAI 兼容;api.xiaomimimo.com/v1;默认 mimo-v2.5-pro
Ollama 本地推理,无需 API key
Atomic Chat 本地模型提供商,自动检测已加载模型
Bedrock / Vertex / Foundry 支持环境下的额外提供商集成
快速开始

三步开始使用

从安装到第一次对话,只需 60 秒。

1

全局安装

terminal
npm install -g @gitlawb/openclaude

⚠️ 提示 ripgrep not found 时,请先安装 ripgrep 并确认 rg --version 可用。

2

配置提供商

macOS / Linux
export CLAUDE_CODE_USE_OPENAI=1
export OPENAI_API_KEY=sk-your-key
export OPENAI_MODEL=gpt-4o

或在应用内运行 /provider 进行引导式配置。

3

启动智能体

terminal
openclaude

# 应用内可用:
# /provider
# /onboard-github

享受流式输出、工具调用与多步骤智能体工作流。

本地推理 无需 API Key

最快的本地 Ollama 设置

在本地机器上运行开源模型,完全私有、零成本。

macOS / Linux
export CLAUDE_CODE_USE_OPENAI=1
export OPENAI_BASE_URL=http://localhost:11434/v1
export OPENAI_MODEL=qwen2.5-coder:7b

openclaude
Windows PowerShell
$env:CLAUDE_CODE_USE_OPENAI="1"
$env:OPENAI_BASE_URL="http://localhost:11434/v1"
$env:OPENAI_MODEL="qwen2.5-coder:7b"

openclaude
智能体路由

为每个智能体
分配最佳模型

通过基于设置的路由将不同的智能体分配到不同的模型。这对成本优化或按模型特长分配工作非常有用。

  • 成本优化

    将廉价模型用于探索,将昂贵模型用于关键路径

  • 按特长分配

    前端任务用一个模型,规划任务用另一个模型

  • 优雅回退

    未匹配路由时,全局提供商作为回退

~/.openclaude.json
{
  "agentModels": {
    "deepseek-v4-flash": {
      "base_url": "https://api.deepseek.com/v1",
      "api_key": "sk-your-key"
    },
    "gpt-4o": {
      "base_url": "https://api.openai.com/v1",
      "api_key": "sk-your-key"
    }
  },
  "agentRouting": {
    "Explore":        "deepseek-v4-flash",
    "Plan":           "gpt-4o",
    "general-purpose": "gpt-4o",
    "frontend-dev":   "deepseek-v4-flash",
    "default":        "gpt-4o"
  }
}

注意:api_key 以明文存储于 settings.json。请保持文件私有,不要提交到版本控制。

无头模式

gRPC 服务器

将智能体能力(工具、bash、文件编辑)集成到任何应用、CI/CD 流水线或自定义 UI 中。

1

启动 gRPC 服务器

localhost:50051 启动核心引擎作为 gRPC 服务。

npm run dev:grpc
GRPC_PORT 默认 50051
GRPC_HOST 默认 localhost
2

运行测试 CLI

完全通过 gRPC 通信的轻量级 CLI 客户端,支持颜色渲染与权限确认。

npm run dev:grpc:cli

gRPC 定义位于 src/proto/openclaude.proto,可生成 Python、Go、Rust 等客户端。

网页能力

网页搜索
与抓取

非 Anthropic 模型默认使用 DuckDuckGo,让 GPT-4o、DeepSeek、Gemini、Ollama 开箱即用。

免费

DuckDuckGo 默认

开箱即用的网页搜索回退方案,可能受速率限制影响。

推荐

Firecrawl 增强

免费版包含 500 积分,正确处理 JS 渲染页面。

export FIRECRAWL_API_KEY=your-key
赞助商

感谢支持的伙伴

准备好解放生产力了吗?

加入 OpenClaude 社区,与开发者一起塑造下一代多提供商编程智能体。